149 resultados para Integrate


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La croissance de la population, de l'économie et des transports individuels motorisés, particulièrement depuis la seconde moitié du 20ème siècle, ont notamment comme corollaire le développement urbanistique hors des frontières de la ville-centre et la formation des agglomérations. Ces zones urbaines sont stratégiques puisqu'elles accueillent une part toujours plus importante de la population et représentent le moteur de l'économie nationale. Toutefois, le développement des agglomérations et de la mobilité individuelle motorisée ne va pas sans poser de nombreux problèmes, dont la résolution nécessite de les aborder à l'échelle de l'agglomération, en coordonnant les transports et l'urbanisation. Notre système politique fédéral se définit notamment par une répartition des compétences dans une multitude de domaines entre les trois niveaux institutionnels de la Confédération, des cantons et des communes. Cette réalité est particulièrement vraie en matière d'aménagement du territoire. Il est à noter que les plus petites unités institutionnelles (les communes) conservent encore aujourd'hui des prérogatives importantes dans ce domaine. Au début des années 2000, la Confédération a développé une politique publique en faveur de ces zones stratégiques. Au moyen du fonds d'infrastructure, la politique fédérale des agglomérations dans les domaines des transports et de l'urbanisation est une politique publique incitative. Le dépôt, par les agglomérations, d'un projet respectant un cahier des charges précis et proposant des mesures de coordination entre les transports et l'urbanisation, permet d'obtenir un cofinancement fédéral du transport d'agglomération. Parmi les projets d'agglomération de première génération présentés à la Confédération, certains ont obtenu le cofinancement, d'autres pas. Le dimensionnement trop généreux des surfaces à bâtir fut notamment un facteur d'échec du projet d'agglomération de Fribourg, alors que la capacité à développer l'urbanisation à l'intérieur de l'agglomération fut un facteur de succès du projet Lausanne-Morges. L'analyse des projets d'agglomération Riviera et Monthey-Aigle, qui sont des projets de deuxième génération, confrontée à des entretiens avec des urbanistes et des responsables politiques, permet d'identifier leurs faiblesses et leurs atouts. Le projet d'agglomération Riviera présente une complémentarité des territoires et un grand potentiel de développement, mais aussi un manque de cohésion des partenaires du projet. Quant au projet Monthey-Aigle, il existe une réelle volonté politique de trouver des solutions aux conflits, mais les possibilités de développer les transports publics sont faibles. Dans le cadre de l'examen fédéral de ces deux projets d'agglomération, les éléments précités pourraient être des facteurs d'échec ou de succès. La politique publique fédérale invite les agglomérations à penser le développement de leurs transports et de leur urbanisation à un niveau global. La prise de hauteur et la coordination politique que cela suppose sont à même d'améliorer le lieu de vie des trois-quarts de la population suisse et de préserver le moteur de l'économie nationale. The growth of population, economy and personal motorised transportation, most particularly since the second half of the 20th century, has, as a consequence, induced an expansion of urban areas outside the borders of cities and encouraged the formation of urban agglomerations. These urban zones are of strategic importance as they attract an increasingly large population and represent a real driver of the national economy. However, the development of these agglomerations and the motorised mobility of their inhabitants cause numerous problems which require solutions to be adopted at the level of the agglomeration involving the interconnection of transport and urbanisation. Our federal political system is characterised by a distribution of responsibilities in many domains among the three institutional levels, namely the Confederation, the cantons and the communes. This is particularly the case of territorial developments. It should be noted that the smallest institutional units, the communes, still hold today important responsibilities in this area. At the beginning of the years 2000, the Confederation has developed a public policy in favour of these strategic zones. Through the establishment of an infrastructure fund, the federal policy in favour of urban agglomerations in the areas of transport and urbanisation aims at providing incentives to agglomerations. The submission by the agglomeration of a project containing a clear description of tasks and measures to integrate transport and urbanisation can result in a cofinancing participation by the Confederation in this project. Among the projects of first generation which had been submitted to the Confederation, some have received the cofinancing, others have not. The too generous dimension of the building areas in the project submitted by the agglomeration of Fribourg was a factor of its failure, while the capacity to develop urbanisation within the agglomeration was a factor of success for the Lausanne-Morges project. The analysis of the projects of the agglomerations Riviera and Monthey-Aigle which are projects of the second generation, as well as the interviews of urbanists and concerned officials have allowed us to identify their strengths and weaknesses. The Riviera project provides a complementary approach and a high potential of territorial developments, but at the same time denotes a lack of cohesion among partners of the project. With respect to the project Monthey-Aigle, there is a real political willingness to resolve conflicts, but the potential for the development of public transports is small. In the consideration by the Confederation of these two projects, the factors mentioned above may bring success or failure. The federal public policy incites the agglomerations to conceive the development of their transportation and urbanisation plans at a global level. The elevation of interests and the political coordination that this requires can improve the place of living of ¾ of the Swiss population and preserve the engine of growth of the national economy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flexitime : between autonomy and constraints. A case study in SwitzerlandBy looking at how a new regulation is translated into everyday practices, this dissertation explores through a specific case study the degree of autonomy gained by wage-earners with the introduction of flexible working schedules. The guiding hypothesis is that by introducing procedural rules, flexitime opens the space for more daily negotiations, therefore reinforcing the effects of power relations inherent to employment relationships. The goal is to understand, through a sociological approach, how employees experience a form of working time that transfers responsibility for time management to them, and howthey integrate work-related constraints with their life outside the workplace. The first part of the dissertation sets up the context of the case study. It offers a definition of flexibility by situating it in the broader history of work time, as well as in relation to various organizational forms and cultural transformations. An international literature review and a focus on the Swiss case are offered. In the second part, the focus is narrowed to a specificSwiss firm specialized in mail-order, where a system of individualized management of annual work time has been introduced. By combining a quantitative and qualitative approach, it is possible to analyze determinants of the practices internal to the firm anddeterminants related to employees themselves, as well as the way in which employees articulate these two orders of constraints. The results show that the implementation of flexible working time is not affecting daily negotiation practices so much as it is creating a set of informal rules. The autonomy ofwage-earners is expressed first and foremost through their capacity to produce, negotiate, and legitimate these rules. The intraindividual level has proven to be central for the social regulation of flexible working time. It is not so much a question of legitimation, but rather the process of institutionalization nurtured by the energy invested by wage-earners in their personal quest for a compromise between their various roles, identities, and aspirations. It is this individualized regulation that is ensuring the success of the system under study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Institute of Radiation Physics (IRA) is attached to the Department of Medical Radiology at the Vaud University Hospital Center (CHUV) in Lausanne. The Institute's main tasks are strongly linked to the medical activities of the Department: radiotherapy, radiodiagnostics, interventional radiology and nuclear medicine. The Institute also works in the fields of operational radiation protection, radiation metrology and radioecology. In the case of an accident involving radioactive materials, the emergency services are able to call on the assistance of radiation protection specialists. In order to avoid having to create and maintain a specific structure, both burdensome and rarely needed, Switzerland decided to unite all existing emergency services for such events. Thus, the IRA was invited to participate in this network. The challenge is therefore to integrate a university structure, used to academic collaborations and the scientific approach, to an interventional organization accustomed to strict policies, a military-style command structure and "drilled" procedures. The IRA's solution entails mobilizing existing resources and the expertise developed through professional experience. The main asset of this solution is that it involves the participation of committed collaborators who remain in a familiar environment, and are able to use proven materials and mastered procedures, even if the atmosphere of an accident situation differs greatly from regular laboratory routines. However, this solution requires both a commitment to education and training in emergency situations, and a commitment in terms of discipline by each collaborator in order to be integrated into a response plan supervised by an operational command center.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physicians are in a unique position to advice smokers to quit by the ability to integrate the various aspects of nicotine dependence. This review provides an overview of intervention with smokers presenting in a primary care setting. Strategies used for smoking cessation counseling differed according to patient's readiness to quit. For smokers who do not intend to quit smoking, physicians should inform and sensitize patients about tobacco use and cessation, especially by personalizing benefits to quit and challenging smokers 'beliefs. For smokers who are dissonant, physicians should use motivational strategies, such as discussing barriers to cessation and their solutions. For smokers ready to quit, the physician should show strong support, help set a quit date, prescribe pharmaceutical therapies for nicotine dependence, such as replacement therapy and/or bupropion, with instructions for use, and suggest behavioral strategies to prevent relapse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Au travers de l'étude des régions de Crans-Montana-Sierre (Valais, Suisse) et de Chamonix-Mont-Blanc (Haute-Savoie, France), cette recherche considère les liens existants entre activités touristiques et sciences de la Terre. Ainsi, les sites géologiques et géomorphologiques pris en compte sont perçus comme ayant non seulement une valeur scientifique, mais aussi un intérêt scénique, culturel et économique. D'un point de vue (géo)touristique, différents modèles d'analyse sont proposés pour expliciter les composantes de l'offre et de la demande et comprendre le cycle de vie des objets étudiés. L'offre que constituent ces sites est tout d'abord présentée afin d'évaluer leurs différents potentiels, ainsi que l'utilisation spatio-temporelle, didactique et économique qui en est faite. Ensuite, les logiques d'acteurs sont analysées au travers des phases de valorisation, d'exploitation et de transformation, dans le but de comprendre les facteurs et les projets d'utilisation les concernant. Enfin, la demande des différents publics cibles, de même que leurs caractéristiques socio-touristiques et (géo)didactiques, sont discutées. Pour ce faire, des méthodes d'inventaire, d'évaluation, d'entretien et de questionnaire ont été utilisées, à différentes échelles d'analyse. On constate d'abord que le pôle des valeurs scénique et économique présente une plus forte mise à contribution, par rapport à l'utilisation didactique. De plus, le niveau de protection des sites ne restreint généralement pas leur exploitation, au contraire du facteur risque. Du point de vue des publics cibles, une forte demande d'explications didactiques est exprimée, s'orientant vers une approche multithématique des potentiels à mettre en valeur; des biens et services de base sont ainsi demandés. Enfin, force est de constater que seuls de grands projets peuvent rendre les activités (géo)touristiques rentables. A l'avenir, sachant que le géotourisme peut répondre à une demande touristique liée au rêve et à l'émotion, l'approche de l'offre devrait intégrer une réflexion en didactique des sciences de la Terre, d'autant que cette forme de tourisme tend à devenir une composante du développement économique régional, notamment en dehors de la saison d'hiver. Idéalement, l'utilisation touristique de la géodiversité devrait s'accompagner d'une politique de protection dynamique, combinant préservation et mise en valeur. A terme, le but ultime de cette entreprise est notamment d'élargir la notion de patrimoine culturel, pour favoriser une approche transdisciplinaire du paysage Abstract : Based on the study of the areas of Crans-Montana-Sierre (Valais, Switzerland) and Chamonix-Mont-Blanc (Haute-Savoie, France), this study considers the links between tourism activities and Earth science. Thus, the studied geological and geomorphological sites have not only a scientific va1ue, but also scenic, cultural and economic value. From a point of view of tourism, different models of analysis are examined in order to explain the components of the supply and the demand, and to understand the life cycles of the considered objects. The primary product of these sites is first presented, in order to assess their different potential as well as their didactic, economic, spatial and temporal use. The stakeholders' behaviour is then analysed to understand the factors and projected use, with the help of the optimisation, exploitation and transformation phases. Finally, the demand of the different target markets as well as their socio-tourist and (geo)didactic characteristics are discussed. To complete this study, methods of census, assessment, interviewing and questionnaire surveying are used, at different scales of analysis. The main results appear to demonstrate that the scenic and economic values present a higher value relative to the didactic use. Moreover, the required conservation measures for the studied sites do not generally restrict the use, on the contrary to the "risk" factor. From the point of view of the target market, a relevant requirement for explanatory commentary is expressed and tends towards an approach optimising different themes to utilise potential; basic popular goods and services are also requested. Finally, it is clearly demonstrated that only relevant projects are able to make this kind of activity profitable. For the future, geotourism may be marketed to a tourist demand for imagination and emotion. Consequently, the product approach should integrate a reflection on Earth science popularisation given that this branch of tourism tends to receive a component of the economic and regional development, notably during the summer period. However, the use of geodiversity should include a concept of dynamic management, taking into account conservation as well as tourism development. Thus, the final aim of this process is to r,r'iden the notion of cultural heritage, in order to stimulate a multidisciplinary approach to the landscape.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article provides expert opinion on the use of cardiovascular magnetic resonance (CMR) in young patients with congenital heart disease (CHD) and in specific clinical situations. As peculiar challenges apply to imaging children, paediatric aspects are repeatedly discussed. The first section of the paper addresses settings and techniques, including the basic sequences used in paediatric CMR, safety, and sedation. In the second section, the indication, application, and clinical relevance of CMR in the most frequent CHD are discussed in detail. In the current era of multimodality imaging, the strengths of CMR are compared with other imaging modalities. At the end of each chapter, a brief summary with expert consensus key points is provided. The recommendations provided are strongly clinically oriented. The paper addresses not only imagers performing CMR, but also clinical cardiologists who want to know which information can be obtained by CMR and how to integrate it in clinical decision-making.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neurological disorders disrupt the equilibrium within the brain and spinal cord ecosystems. Ecology reuses, recycles, and reduces to help maintain the balance across ecosystems. Likewise, neuroprosthetics can help the brain help itself with ecoprosthetic designs that integrate the principles of the "three 'R's."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE OF REVIEW: Multimodal monitoring (MMM) is routinely applied in neurointensive care. Unfortunately, there is no robust evidence on which MMM-derived physiologic variables are the most clinically relevant, how and when they should be monitored, and whether MMM impacts outcome. The complexity is even higher because once the data are continuously collected, interpretation and integration of these complex physiologic events into targeted individualized care is still embryonic. RECENT FINDINGS: Recent clinical investigation mainly focused on intracranial pressure, perfusion of the brain, and oxygen availability along with electrophysiology. Moreover, a series of articles reviewing the available evidence on all the MMM tools, giving practical recommendations for bedside MMM, has been published, along with other consensus documents on the role of neuromonitoring and electroencephalography in this setting. SUMMARY: MMM allows comprehensive exploration of the complex pathophysiology of acute brain damage and, depending on the different configuration of the pathological condition we are treating, the application of targeted individualized care. Unfortunately, we still lack robust evidence on how to better integrate MMM-derived information at the bedside to improve patient management. Advanced informatics is promising and may provide us a supportive tool to interpret physiologic events and guide pathophysiological-based therapeutic decisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity is a strategic service in modern societies. Thus, it is extremely important for governments to be able to guarantee an affordable and reliable supply, which depends to a great extent on an adequate expansion of the generation and transmission capacities. Cross- border integration of electricity markets creates new challenges for the regulators, since the evolution of the market is now influenced by the characteristics and policies of neighbouring countries. There is still no agreement on why and how regions should integrate their electricity markets. The aim of this thesis is to improve the understanding of integrated electricity markets and how their behaviour depends on the prevailing characteristics of the national markets and the policies implemented in each country. We developed a simulation model to analyse under what circumstances integration is desirable. This model is used to study three cases of interconnection between two countries. Several policies regarding interconnection expansion and operation, combined with different generation capacity adequacy mechanisms, are evaluated. The thesis is composed of three papers. The first paper presents a detailed description of the model and an analysis of the case of Colombia and Ecuador. It shows that market coupling can bring important benefits, but the relative size of the countries can lead to import dependency issues in the smaller country. The second paper compares the case of Colombia and Ecuador with the case of Great Britain and France. These countries are significantly different in terms of electricity sources, hydro- storage capacity, complementarity and demand growth. We show that complementarity is essential in order to obtain benefits from integration, while higher demand growth and hydro- storage capacity can lead to counterintuitive outcomes, thus complicating policy design. In the third paper, an extended version of the model presented in the first paper is used to analyse the case of Finland and its interconnection with Russia. Different trading arrangements are considered. We conclude that unless interconnection capacity is expanded, the current trading arrangement, where a single trader owns the transmission rights and limits the flow during peak hours, is beneficial for Finland. In case of interconnection expansion, market coupling would be preferable. We also show that the costs of maintaining a strategic reserve in Finland are justified in order to limit import dependency, while still reaping the benefits of interconnection. In general, we conclude that electricity market integration can bring benefits if the right policies are implemented. However, a large interconnection capacity is only desirable if the countries exhibit significant complementarity and trust each other. The outcomes of policies aimed at guaranteeing security of supply at a national level can be quite counterintuitive due to the interactions between neighbouring countries and their effects on interconnection and generation investments. Thus, it is important for regulators to understand these interactions and coordinate their decisions in order to take advantage of the interconnection without putting security of supply at risk. But it must be taken into account that even when integration brings benefits to the region, some market participants lose and might try to hinder the integration process. -- Dans les sociétés modernes, l'électricité est un service stratégique. Il est donc extrêmement important pour les gouvernements de pouvoir garantir la sécurité d'approvisionnement à des prix abordables. Ceci dépend en grande mesure d'une expansion adéquate des capacités de génération et de transmission. L'intégration des marchés électriques pose des nouveaux défis pour les régulateurs, puisque l'évolution du marché est maintenant influencée par les caractéristiques et les politiques des pays voisins. Il n'est pas encore claire pourquoi ni comment les marches électriques devraient s'intégrer. L'objectif de cette thèse est d'améliorer la compréhension des marchés intégrés d'électricité et de leur comportement en fonction des caractéristiques et politiques de chaque pays. Un modèle de simulation est proposé pour étudier les conditions dans lesquelles l'intégration est désirable. Ce modèle est utilisé pour étudier trois cas d'interconnexion entre deux pays. Plusieurs politiques concernant l'expansion et l'opération de l'interconnexion, combinées avec différents mécanismes de rémunération de la capacité, sont évalués. Cette thèse est compose de trois articles. Le premier présente une description détaillée du modèle et une analyse du cas de la Colombie et de l'Equateur. Il montre que le couplage de marchés peut amener des bénéfices importants ; cependant, la différence de taille entre pays peut créer des soucis de dépendance aux importations pour le pays le plus petit. Le second papier compare le cas de la Colombie et l'Equateur avec le cas de la Grande Bretagne et de la France. Ces pays sont très différents en termes de ressources, taille des réservoirs d'accumulation pour l'hydro, complémentarité et croissance de la demande. Nos résultats montrent que la complémentarité joue un rôle essentiel dans l'obtention des bénéfices potentiels de l'intégration, alors qu'un taux élevé de croissance de la demande, ainsi qu'une grande capacité de stockage, mènent à des résultats contre-intuitifs, ce qui complique les décisions des régulateurs. Dans le troisième article, une extension du modèle présenté dans le premier article est utilisée pour analyser le cas de la Finlande et de la Russie. Différentes règles pour les échanges internationaux d'électricité sont considérées. Nos résultats indiquent qu'à un faible niveau d'interconnexion, la situation actuelle, où un marchand unique possède les droits de transmission et limite le flux pendant les heures de pointe, est bénéfique pour la Finlande. Cependant, en cas d'expansion de la capacité d'interconnexion, «market coupling» est préférable. préférable. Dans tous les cas, la Finlande a intérêt à garder une réserve stratégique, car même si cette politique entraine des coûts, elle lui permet de profiter des avantages de l'intégration tout en limitant ca dépendance envers les importations. En général, nous concluons que si les politiques adéquates sont implémentées, l'intégration des marchés électriques peut amener des bénéfices. Cependant, une grande capacité d'interconnexion n'est désirable que si les pays ont une complémentarité importante et il existe une confiance mutuelle. Les résultats des politiques qui cherchent à préserver la sécurité d'approvisionnement au niveau national peuvent être très contre-intuitifs, étant données les interactions entre les pays voisins et leurs effets sur les investissements en génération et en interconnexion. Il est donc très important pour les régulateurs de comprendre ces interactions et de coordonner décisions à fin de pouvoir profiter de l'interconnexion sans mettre en danger la sécurité d'approvisionnement. Mais il faut être conscients que même quand l'intégration amène de bénéfices pour la région, certains participants au marché sont perdants et pourraient essayer de bloquer le processus d'intégration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given the multiplicity of nanoparticles (NPs), there is a requirement to develop screening strategies to evaluate their toxicity. Within the EU-funded FP7 NanoTEST project, a panel of medically relevant NPs has been used to develop alternative testing strategies of NPs used in medical diagnostics. As conventional toxicity tests cannot necessarily be directly applied to NPs in the same manner as for soluble chemicals and drugs, we determined the extent of interference of NPs with each assay process and components. In this study, we fully characterized the panel of NP suspensions used in this project (poly(lactic-co-glycolic acid)-polyethylene oxide [PLGA-PEO], TiO2, SiO2, and uncoated and oleic-acid coated Fe3O4) and showed that many NP characteristics (composition, size, coatings, and agglomeration) interfere with a range of in vitro cytotoxicity assays (WST-1, MTT, lactate dehydrogenase, neutral red, propidium iodide, (3)H-thymidine incorporation, and cell counting), pro-inflammatory response evaluation (ELISA for GM-CSF, IL-6, and IL-8), and oxidative stress detection (monoBromoBimane, dichlorofluorescein, and NO assays). Interferences were assay specific as well as NP specific. We propose how to integrate and avoid interference with testing systems as a first step of a screening strategy for biomedical NPs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: This study aimed to analyze complaints of patients, their relatives, and friends who consulted a complaints center based (Espace Patients & Proches (EPP)) in a hospital so as to better understand the reasons that motivated them and their underlying expectations. METHODS: This study was based on the analysis of written accounts of the 253 situations that occurred during the first year of operation of the EPP. The accounts were analyzed qualitatively using an inductive, thematic analytic approach. RESULTS: We identified 372 different types of complaints and 28 main analytic themes. Five clustered themes emerged from the analysis of the interconnections among the core themes: (1) interpersonal relationship (N=160-the number of accounts including a complaint related to this general theme); (2) technical aspects of care (N=106); (3) health-care institution (N=69); (4) billing and insurance; (5) access to information (N=13). CONCLUSION: The main reason for patients, their relatives, and friends going to EPP was related to the quality of the interpersonal relationship with health-care professionals. Such complaints were markedly more frequent than those concerning technical aspects of care. PRACTICE IMPLICATIONS: These results raise important questions concerning changing patient expectations as well as how hospitals integrate complaints into the process of quality health care.