15 resultados para Information interaction
em Université de Lausanne, Switzerland
Resumo:
ABSTRACT: In order to evaluate the one-year evolution of web-based information on alcohol dependence, we re-assessed alcohol-related sites in July 2007 with the same evaluating tool that had been used to assess these sites in June 2006. Websites were assessed with a standardized form designed to rate sites on the basis of accountability, presentation, interactivity, readability, and content quality. The DISCERN scale was also used, which aimed to assist persons without content expertise in assessing the quality of written health publications. Scores were highly stable for all components of the form one year later (r = .77 to .95, p < .01). Analysis of variance for repeated measures showed no time effect, no interaction between time and scale, no interaction between time and group (affiliation categories), and no interaction between time, group, and scale. The study highlights lack of change of alcohol-dependence-related web pages across one year.
Resumo:
Colistin is a last resort's antibacterial treatment in critically ill patients with multi-drug resistant Gram-negative infections. As appropriate colistin exposure is the key for maximizing efficacy while minimizing toxicity, individualized dosing optimization guided by therapeutic drug monitoring is a top clinical priority. Objective of the present work was to develop a rapid and robust HPLC-MS/MS assay for quantification of colistin plasma concentrations. This novel methodology validated according to international standards simultaneously quantifies the microbiologically active compounds colistin A and B, plus the pro-drug colistin methanesulfonate (colistimethate, CMS). 96-well micro-Elution SPE on Oasis Hydrophilic-Lipophilic-Balanced (HLB) followed by direct analysis by Hydrophilic Interaction Liquid Chromatography (HILIC) with Ethylene Bridged Hybrid - BEH - Amide phase column coupled to tandem mass spectrometry allows a high-throughput with no significant matrix effect. The technique is highly sensitive (limit of quantification 0.014 and 0.006μg/mL for colistin A and B), precise (intra-/inter-assay CV 0.6-8.4%) and accurate (intra-/inter-assay deviation from nominal concentrations -4.4 to +6.3%) over the clinically relevant analytical range 0.05-20μg/mL. Colistin A and B in plasma and whole blood samples are reliably quantified over 48h at room temperature and at +4°C (<6% deviation from nominal values) and after three freeze-thaw cycles. Colistimethate acidic hydrolysis (1M H2SO4) to colistin A and B in plasma was completed in vitro after 15min of sonication while the pro-drug hydrolyzed spontaneously in plasma ex vivo after 4h at room temperature: this information is of utmost importance for interpretation of analytical results. Quantification is precise and accurate when using serum, citrated or EDTA plasma as biological matrix, while use of heparin plasma is not appropriate. This new analytical technique providing optimized quantification in real-life conditions of the microbiologically active compounds colistin A and B offers a highly efficient tool for routine therapeutic drug monitoring aimed at individualizing drug dosing against life-threatening infections.
Resumo:
Objective : The main objective of this study was to assess mother-child patterns of interaction in relation to later quality of attachment in a group of children with an orofacial cleft compared with children without cleft. Design : Families were contacted when the child was 2 months old for a direct assessment of mother-child interaction and then at 12 months for a direct assessment of the child's attachment. Data concerning socioeconomical information and posttraumatic stress symptoms in mothers were collected at the first appointment. Participants : Forty families of children with a cleft and 45 families of children without cleft were included in the study. Families were recruited at birth in the University Hospital of Lausanne. Results : Results showed that children with a cleft were more difficult and less cooperative during interaction at 2 months of age with their mother compared with children without a cleft. No significant differences were found in mothers or in dyadic interactive styles. Concerning the child's attachment at 12 months old, no differences were found in attachment security. However, secure children with a cleft were significantly more avoidant with their mother during the reunion episodes than secure children without cleft. Conclusion : Despite the facial disfigurement and the stress engendered by treatment during the first months of the infant's life, children with cleft and their mothers are doing as well as families without cleft with regard to the mothers' mental health, mother-child relationships, and later quality of attachment. A potential contribution for this absence of difference may be the pluridisciplinary support that families of children with cleft benefit from in Lausanne.
Resumo:
This article presents a new theory that separates the levels of communication and relates them circularly, namely, by separating time from space/meaning variables. Documenting this proposition requires sequential microdescriptions--a far-out project in the field of family therapy. In an extensive study of clinical and nonclinical families, starting with available microanalytic data on nonverbal parent-infant dialogue, distinct time organizations have been found to modify the degree of circularity between the levels of interaction according to the observed types of engagement, that is, consensual, conflictual, and paradoxical. The double description of the dyad as a totality versus the dyad as a framing/developing organization imparts crucial information on how development proceeds in dyadic, co-evolutive systems, and presumably in larger ones too. In this perspective, a model is elaborated and then applied to a case description in our therapeutic consultation.
Resumo:
SUMMARY This paper analyses the outcomes of the EEA and bilateral agreements vote at the level of the 3025 communities of the Swiss Confederation by simultaneously modelling the vote and the participation decisions. Regressions include economic and political factors. The economic variables are the aggregated shares of people employed in the losing, Winning and neutral sectors, according to BRUNETTI, JAGGI and WEDER (1998) classification, Which follows a Ricardo-Viner logic, and the average education levels, which follows a Heckscher-Ohlin approach. The political factors are those used in the recent literature. The results are extremely precise and consistent. Most of the variables have the predicted sign and are significant at the l % level. More than 80 % of the communities' vote variance is explained by the model, substantially reducing the residuals when compared to former studies. The political variables do have the expected signs and are significant as Well. Our results underline the importance of the interaction between electoral choice and participation decisions as well as the importance of simultaneously dealing with those issues. Eventually they reveal the electorate's high level of information and rationality. ZUSAMMENFASSUNG Unser Beitrag analysiert in einem Model, welches gleichzeitig die Stimm- ("ja" oder "nein") und Partizipationsentscheidung einbezieht, den Ausgang der Abstimmungen über den Beitritt zum EWR und über die bilateralen Verträge für die 3025 Gemeinden der Schweiz. Die Regressionsgleichungen beinhalten ökonomische und politische Variabeln. Die ökonomischen Variabeln beinhalten die Anteile an sektoriellen Arbeitsplatzen, die, wie in BRUNETTI, JAGGIl.1I1d WEDER (1998), in Gewinner, Verlierer und Neutrale aufgeteilt Wurden, gemäß dem Model von Ricardo-Viner, und das durchschnittliche Ausbildungsniveau, gemäß dem Model von Heckscher-Ohlin. Die politischen Variabeln sind die in der gegenwärtigen Literatur üblichen. Unsere Resultate sind bemerkenswert präzise und kohärent. Die meisten Variabeln haben das von der Theorie vorausgesagte Vorzeichen und sind hoch signifikant (l%). Mehr als 80% der Varianz der Stimmabgabe in den Gemeinden wird durch das Modell erklärt, was, im Vergleich mit früheren Arbeiten, die unerklärten Residuen Wesentlich verkleinert. Die politischen Variabeln haben auch die erwarteten Vorzeichen und sind signifikant. Unsere Resultate unterstreichen die Bedeutung der Interaktion zwischen der Stimm- und der Partizipationsentscheidung, und die Bedeutung diese gleichzeitig zu behandeln. Letztendlich, belegen sie den hohen lnformationsgrad und die hohe Rationalität der Stimmbürger. RESUME Le présent article analyse les résultats des votations sur l'EEE et sur les accords bilatéraux au niveau des 3025 communes de la Confédération en modélisant simultanément les décisions de vote ("oui" ou "non") et de participation. Les régressions incluent des déterminants économiques et politiques. Les déterminants économiques sont les parts d'emploi sectoriels agrégées en perdants, gagnants et neutres selon la classification de BRUNETTI, JAGGI ET WEDER (1998), suivant la logique du modèle Ricardo-Viner, et les niveaux de diplômes moyens, suivant celle du modèle Heckscher-Ohlin. Les déterminants politiques suivent de près ceux utilisés dans la littérature récente. Les résultats sont remarquablement précis et cohérents. La plupart des variables ont les signes prédits par les modèles et sont significatives a 1%. Plus de 80% de la variance du vote par commune sont expliqués par le modèle, faisant substantiellement reculer la part résiduelle par rapport aux travaux précédents. Les variables politiques ont aussi les signes attendus et sont aussi significatives. Nos résultats soulignent l'importance de l'interaction entre choix électoraux et décisions de participation et l'importance de les traiter simultanément. Enfin, ils mettent en lumière les niveaux élevés d'information et de rationalité de l'électorat.
Resumo:
SUMMARYAstrocytes represent the largest cell population in the human brain. In addition to a well established role as metabolic support for neuronal activity, in the last years these cells have been found to accomplish other important and, sometimes, unexpected functions. The tight enwrapping of synapses by astrocytic processes and the predominant expression of glutamate uptake carriers in the astrocytic rather than neuronal plasma membranes brought to the definition of a critical involvement of astrocytes in the clearance of glutamate from synaptic junctions. Moreover, several publications showed that astrocytes are able to release chemical transmitters (gliotransmitters) suggesting their active implication in the control of synaptic functions. Among gliotransmitters, the best characterized is glutamate, which has been proposed to be released from astrocytes in a Ca2+ dependent manner via exocytosis of synaptic-like microvesicles.In my thesis I present results leading to substantial advancement of the understanding of the mechanisms by which astrocytes modulate synaptic activity in the hippocampus, notably at excitatory synapses on dentate granule cells. I show that tumor necrosis factor- alpha (TNFa), a molecule that is generally involved in immune system functions, critically controls astrocyte-to-synapse communication (gliotransmission) in the brain. With constitutive levels of TNFa present, activation of purinergic G protein-coupled receptors in astrocytes, called P2Y1 receptors, induces localized intracellular calcium ([Ca2+]j) elevation in astrocytic processes (measured by two-photon microscopy) followed by glutamate release and activation of pre-synaptic NMDA receptors resulting in synaptic potentiation. In preparations lacking TNFa, astrocytes respond with identical [Ca2+]i elevations but fail to induce neuromodulation. I find that TNFa specifically controls the glutamate release step of gliotransmission. Addition of very low (picomolar) TNFa concentrations to preparations lacking the cytokine, promptly reconstitutes both normal exocytosis in cultured astrocytes and gliotransmission in hippocampal slices. These data provide the first demonstration that gliotransmission and its synaptic effects are controlled not only by astrocyte [Ca2+]i elevations but also by permissive/homeostatic factors like TNFa.In addition, I find that higher and presumably pathological TNFa concentrations do not act just permissively but instead become direct and potent triggers of glutamate release from astrocytes, leading to a strong enhancement of excitatory synaptic activity. The TNFa action, like the one observed upon P2Y1R activation, is mediated by pre-synaptic NMDA receptors, but in this case the effect is long-lasting, and not reversible. Moreover, I report that a necessary molecular target for this action of TNFa is TNFR1, one of the two specific receptors for the cytokine, as I found that TNFa was unable to induce synaptic potentiation when applied in slices from TNFR1 knock-out (Tnfrlv") mice. I then created a double transgenic mouse model where TNFR1 is knocked out in all cells but can be re-expressed selectively in astrocytes and I report that activation of the receptors in these cells is sufficient to reestablish TNFa-dependent long-lasting potentiation of synaptic activity in the TNFR1 knock-out mice.I therefore discovered that TNFa is a primary molecule displaying both permissive and instructive roles on gliotransmission controlling synaptic functions. These reports might have profound implications for the understanding of both physiological and pathological processes associated to TNFa production, including inflammatory processes in the brain.RÉSUMÉLes astrocytes sont les cellules les plus abondantes du cerveau humain. Outre leur rôle bien établi dans le support métabolique de l'activité neuronale, d'autres fonctions importantes, et parfois inattendues de ces cellules ont été mises en lumière au cours de ces dernières années. Les astrocytes entourent étroitement les synapses de leurs fins processus qui expriment fortement les transporteurs du glutamate et permettent ainsi aux astrocytes de jouer un rôle critique dans l'élimination du glutamate de la fente synaptique. Néanmoins, les astrocytes semblent être capables de jouer un rôle plus intégratif en modulant l'activité synaptique, notamment par la libération de transmetteurs (gliotransmetteurs). Le gliotransmetteur le plus étudié est le glutamate qui est libéré par l'exocytose régulée de petites vésicules ressemblant aux vésicules synaptiques (SLMVs) via un mécanisme dépendant du calcium.Les résultats présentés dans cette thèse permettent une avancée significative dans la compréhension du mode de communication de ces cellules et de leur implication dans la transmission de l'information synaptique dans l'hippocampe, notamment des synapses excitatrices des cellules granulaires du gyrus dentelé. J'ai pu montrer que le « facteur de nécrose tumorale alpha » (TNFa), une cytokine communément associée au système immunitaire, est aussi fondamentale pour la communication entre astrocyte et synapse. Lorsqu'un niveau constitutif très bas de TNFa est présent, l'activation des récepteurs purinergiques P2Y1 (des récepteurs couplés à protéine G) produit une augmentation locale de calcium (mesurée en microscopie bi-photonique) dans l'astrocyte. Cette dernière déclenche ensuite une libération de glutamate par les astrocytes conduisant à l'activation de récepteurs NMDA présynaptiques et à une augmentation de l'activité synaptique. En revanche, dans la souris TNFa knock-out cette modulation de l'activité synaptique par les astrocytes n'est pas bien qu'ils présentent toujours une excitabilité calcique normale. Nous avons démontré que le TNFa contrôle spécifiquement l'exocytose régulée des SLMVs astrocytaires en permettant la fusion synchrone de ces vésicules et la libération de glutamate à destination des récepteurs neuronaux. Ainsi, nous avons, pour la première fois, prouvé que la modulation de l'activité synaptique par l'astrocyte nécessite, pour fonctionner correctement, des facteurs « permissifs » comme le TNFa, agissant sur le mode de sécrétion du glutamate astrocytaire.J'ai pu, en outre, démontrer que le TNFa, à des concentrations plus élevées (celles que l'on peut observer lors de conditions pathologiques) provoque une très forte augmentation de l'activité synaptique, agissant non plus comme simple facteur permissif mais bien comme déclencheur de la gliotransmission. Le TNFa provoque 1'activation des récepteurs NMD A pré-synaptiques (comme dans le cas des P2Y1R) mais son effet est à long terme et irréversible. J'ai découvert que le TNFa active le récepteur TNFR1, un des deux récepteurs spécifiques pour le TNFa. Ainsi, l'application de cette cytokine sur une tranche de cerveau de souris TNFR1 knock-out ne produit aucune modification de l'activité synaptique. Pour vérifier l'implication des astrocytes dans ce processus, j'ai ensuite mis au point un modèle animal doublement transgénique qui exprime le TNFR1 uniquement dans les astrocytes. Ce dernier m'a permis de prouver que l'activation des récepteurs TNFR1 astrocytaires est suffisante pour induire une augmentation de l'activité synaptique de manière durable.Nous avons donc découvert que le TNFa possède un double rôle, à la fois un rôle permissif et actif, dans le contrôle de la gliotransmission et, par conséquent, dans la modulation de l'activité synaptique. Cette découverte peut potentiellement être d'une extrême importance pour la compréhension des mécanismes physiologiques et pathologiques associés à la production du TNFa, en particulier lors de conditions inflammatoires.RÉSUMÉ GRAND PUBLICLes astrocytes représentent la population la plus nombreuse de cellules dans le cerveau humain. On sait, néanmoins, très peu de choses sur leurs fonctions. Pendant très longtemps, les astrocytes ont uniquement été considérés comme la colle du cerveau, un substrat inerte permettant seulement de lier les cellules neuronales entre elles. Il n'y a que depuis peu que l'on a découvert de nouvelles implications de ces cellules dans le fonctionnement cérébral, comme, entre autres, une fonction de support métabolique de l'activité neuronale et un rôle dans la modulation de la neurotransmission. C'est ce dernier aspect qui fait l'objet de mon projet de thèse.Nous avons découvert que l'activité des synapses (régions qui permettent la communication d'un neurone à un autre) qui peut être potentialisée par la libération du glutamate par les astrocytes, ne peut l'être que dans des conditions astrocytaires très particulières. Nous avons, en particulier, identifié une molécule, le facteur de nécrose tumorale alpha (TNFa) qui joue un rôle critique dans cette libération de glutamate astrocytaire.Le TNFa est surtout connu pour son rôle dans le système immunitaire et le fait qu'il est massivement libéré lors de processus inflammatoires. Nous avons découvert qu'en concentration minime, correspondant à sa concentration basale, le TNFa peut néanmoins exercer un rôle indispensable en permettant la communication entre l'astrocyte et le neurone. Ce mode de fonctionnement est assez probablement représentatif d'un processus physiologique qui permet d'intégrer la communication astrocyte/neurone au fonctionnement général du cerveau. Par ailleurs, nous avons également démontré qu'en quantité plus importante, le TNFa change son mode de fonctionnement et agit comme un stimulateur direct de la libération de glutamate par l'astrocyte et induit une activation persistante de l'activité synaptique. Ce mode de fonctionnement est assez probablement représentatif d'un processus pathologique.Nous sommes également arrivés à ces conclusions grâce à la mise en place d'une nouvelle souche de souris doublement transgéniques dans lesquelles seuls les astrocytes (etnon les neurones ou les autres cellules cérébrales) sont capables d'être activés par le TNFa.
Resumo:
MOTIVATION: Most bioactive molecules perform their action by interacting with proteins or other macromolecules. However, for a significant fraction of them, the primary target remains unknown. In addition, the majority of bioactive molecules have more than one target, many of which are poorly characterized. Computational predictions of bioactive molecule targets based on similarity with known ligands are powerful to narrow down the number of potential targets and to rationalize side effects of known molecules. RESULTS: Using a reference set of 224 412 molecules active on 1700 human proteins, we show that accurate target prediction can be achieved by combining different measures of chemical similarity based on both chemical structure and molecular shape. Our results indicate that the combined approach is especially efficient when no ligand with the same scaffold or from the same chemical series has yet been discovered. We also observe that different combinations of similarity measures are optimal for different molecular properties, such as the number of heavy atoms. This further highlights the importance of considering different classes of similarity measures between new molecules and known ligands to accurately predict their targets. CONTACT: olivier.michielin@unil.ch or vincent.zoete@unil.ch SUPPLEMENTARY INFORMATION: Supplementary data are available at Bioinformatics online.
Resumo:
The splenium of the corpus callosum connects the posterior cortices with fibers varying in size from thin late-myelinating axons in the anterior part, predominantly connecting parietal and temporal areas, to thick early-myelinating fibers in the posterior part, linking primary and secondary visual areas. In the adult human brain, the function of the splenium in a given area is defined by the specialization of the area and implemented via excitation and/or suppression of the contralateral homotopic and heterotopic areas at the same or different level of visual hierarchy. These mechanisms are facilitated by interhemispheric synchronization of oscillatory activity, also supported by the splenium. In postnatal ontogenesis, structural MRI reveals a protracted formation of the splenium during the first two decades of human life. In doing so, the slow myelination of the splenium correlates with the formation of interhemispheric excitatory influences in the extrastriate areas and the EEG synchronization, while the gradual increase of inhibitory effects in the striate cortex is linked to the local inhibitory circuitry. Reshaping interactions between interhemispherically distributed networks under various perceptual contexts allows sparsification of responses to superfluous information from the visual environment, leading to a reduction of metabolic and structural redundancy in a child's brain.
Resumo:
Human cooperation is often based on reputation gained from previous interactions with third parties. Such reputation can be built on generous or punitive actions, and both, one's own reputation and the reputation of others have been shown to influence decision making in experimental games that control for confounding variables. Here we test how reputation-based cooperation and punishment react to disruption of the cognitive processing in different kinds of helping games with observers. Saying a few superfluous words before each interaction was used to possibly interfere with working memory. In a first set of experiments, where reputation could only be based on generosity, the disruption reduced the frequency of cooperation and lowered mean final payoffs. In a second set of experiments where reputation could only be based on punishment, the disruption increased the frequency of antisocial punishment (i.e. of punishing those who helped) and reduced the frequency of punishing defectors. Our findings suggest that working memory can easily be constraining in reputation-based interactions within experimental games, even if these games are based on a few simple rules with a visual display that provides all the information the subjects need to play the strategies predicted from current theory. Our findings also highlight a weakness of experimental games, namely that they can be very sensitive to environmental variation and that quantitative conclusions about antisocial punishment or other behavioral strategies can easily be misleading.
Resumo:
The exchange of information during interactions of T cells with dendritic cells, B cells or other T cells regulates the course of T, B and DC-cell activation and their differentiation into effector cells. The tumor necrosis factor superfamily member LIGHT (homologous to lymphotoxin, exhibits inducible expression and competes with HSV glycoprotein D for binding to herpesvirus entry mediator, a receptor expressed on T lymphocytes) is transiently expressed upon T cell activation and modulates CD8 T cell-mediated alloreactive responses upon herpes virus entry mediator (HVEM) and lymphotoxin β receptor (LTβR) engagement. LIGHT-deficient mice, or WT mice treated with LIGHT-targeting decoy receptors HVEM-Ig, LTβR-Ig or sDcR3-Ig, exhibit prolonged graft survival compared to untreated controls, suggesting that LIGHT modulates the course and severity of graft rejection. Therefore, targeting the interaction of LIGHT with HVEM and/or LTβR using recombinant soluble decoy receptors or monoclonal antibodies represent an innovative therapeutic strategy for the prevention and treatment of allograft rejection and for the promotion of donor-specific tolerance.
Resumo:
Background: Conventional magnetic resonance imaging (MRI) techniques are highly sensitive to detect multiple sclerosis (MS) plaques, enabling a quantitative assessment of inflammatory activity and lesion load. In quantitative analyses of focal lesions, manual or semi-automated segmentations have been widely used to compute the total number of lesions and the total lesion volume. These techniques, however, are both challenging and time-consuming, being also prone to intra-observer and inter-observer variability.Aim: To develop an automated approach to segment brain tissues and MS lesions from brain MRI images. The goal is to reduce the user interaction and to provide an objective tool that eliminates the inter- and intra-observer variability.Methods: Based on the recent methods developed by Souplet et al. and de Boer et al., we propose a novel pipeline which includes the following steps: bias correction, skull stripping, atlas registration, tissue classification, and lesion segmentation. After the initial pre-processing steps, a MRI scan is automatically segmented into 4 classes: white matter (WM), grey matter (GM), cerebrospinal fluid (CSF) and partial volume. An expectation maximisation method which fits a multivariate Gaussian mixture model to T1-w, T2-w and PD-w images is used for this purpose. Based on the obtained tissue masks and using the estimated GM mean and variance, we apply an intensity threshold to the FLAIR image, which provides the lesion segmentation. With the aim of improving this initial result, spatial information coming from the neighbouring tissue labels is used to refine the final lesion segmentation.Results:The experimental evaluation was performed using real data sets of 1.5T and the corresponding ground truth annotations provided by expert radiologists. The following values were obtained: 64% of true positive (TP) fraction, 80% of false positive (FP) fraction, and an average surface distance of 7.89 mm. The results of our approach were quantitatively compared to our implementations of the works of Souplet et al. and de Boer et al., obtaining higher TP and lower FP values.Conclusion: Promising MS lesion segmentation results have been obtained in terms of TP. However, the high number of FP which is still a well-known problem of all the automated MS lesion segmentation approaches has to be improved in order to use them for the standard clinical practice. Our future work will focus on tackling this issue.
Resumo:
1. The formation of groups is a fundamental aspect of social organization, but there are still many questions regarding how social structure emerges from individuals making non-random associations. 2. Although food distribution and individual phenotypic traits are known to separately influence social organization, this is the first study, to our knowledge, experimentally linking them to demonstrate the importance of their interaction in the emergence of social structure. 3. Using an experimental design in which food distribution was either clumped or dispersed, in combination with individuals that varied in exploratory behaviour, our results show that social structure can be induced in the otherwise non-social European shore crab (Carcinus maenas). 4. Regardless of food distribution, individuals with relatively high exploratory behaviour played an important role in connecting otherwise poorly connected individuals. In comparison, low exploratory individuals aggregated into cohesive, stable subgroups (moving together even when not foraging), but only in tanks where resources were clumped. No such non-foraging subgroups formed in environments where food was evenly dispersed. 5. Body size did not accurately explain an individual's role within the network for either type of food distribution. 6. Because of their synchronized movements and potential to gain social information, groups of low exploratory crabs were more effective than singletons at finding food. 7. Because social structure affects selection, and social structure is shown to be sensitive to the interaction between ecological and behavioural differences among individuals, local selective pressures are likely to reflect this interaction.
Resumo:
The capacity to interact socially and share information underlies the success of many animal species, humans included. Researchers of many fields have emphasized the evo¬lutionary significance of how patterns of connections between individuals, or the social networks, and learning abilities affect the information obtained by animal societies. To date, studies have focused on the dynamics either of social networks, or of the spread of information. The present work aims to study them together. We make use of mathematical and computational models to study the dynamics of networks, where social learning and information sharing affect the structure of the population the individuals belong to. The number and strength of the relationships between individuals, in turn, impact the accessibility and the diffusion of the shared information. Moreover, we inves¬tigate how different strategies in the evaluation and choice of interacting partners impact the processes of knowledge acquisition and social structure rearrangement. First, we look at how different evaluations of social interactions affect the availability of the information and the network topology. We compare a first case, where individuals evaluate social exchanges by the amount of information that can be shared by the partner, with a second case, where they evaluate interactions by considering their partners' social status. We show that, even if both strategies take into account the knowledge endowments of the partners, they have very different effects on the system. In particular, we find that the first case generally enables individuals to accumulate higher amounts of information, thanks to the more efficient patterns of social connections they are able to build. Then, we study the effects that homophily, or the tendency to interact with similar partners, has on knowledge accumulation and social structure. We compare the case where individuals who know the same information are more likely to learn socially from each other, to the opposite case, where individuals who know different information are instead more likely to learn socially from each other. We find that it is not trivial to claim which strategy is better than the other. Depending on the possibility of forgetting information, the way new social partners can be chosen, and the population size, we delineate the conditions for which each strategy allows accumulating more information, or in a faster way For these conditions, we also discuss the topological characteristics of the resulting social structure, relating them to the information dynamics outcome. In conclusion, this work paves the road for modeling the joint dynamics of the spread of information among individuals and their social interactions. It also provides a formal framework to study jointly the effects of different strategies in the choice of partners on social structure, and how they favor the accumulation of knowledge in the population. - La capacité d'interagir socialement et de partager des informations est à la base de la réussite de nombreuses espèces animales, y compris les humains. Les chercheurs de nombreux domaines ont souligné l'importance évolutive de la façon dont les modes de connexions entre individus, ou réseaux sociaux et les capacités d'apprentissage affectent les informations obtenues par les sociétés animales. À ce jour, les études se sont concentrées sur la dynamique soit des réseaux sociaux, soit de la diffusion de l'information. Le présent travail a pour but de les étudier ensemble. Nous utilisons des modèles mathématiques et informatiques pour étudier la dynamique des réseaux, où l'apprentissage social et le partage d'information affectent la structure de la population à laquelle les individus appartiennent. Le nombre et la solidité des relations entre les individus ont à leurs tours un impact sur l'accessibilité et la diffusion de l'informa¬tion partagée. Par ailleurs, nous étudions comment les différentes stratégies d'évaluation et de choix des partenaires d'interaction ont une incidence sur les processus d'acquisition des connaissances ainsi que le réarrangement de la structure sociale. Tout d'abord, nous examinons comment des évaluations différentes des interactions sociales influent sur la disponibilité de l'information ainsi que sur la topologie du réseau. Nous comparons un premier cas, où les individus évaluent les échanges sociaux par la quantité d'information qui peut être partagée par le partenaire, avec un second cas, où ils évaluent les interactions en tenant compte du statut social de leurs partenaires. Nous montrons que, même si les deux stratégies prennent en compte le montant de connaissances des partenaires, elles ont des effets très différents sur le système. En particulier, nous constatons que le premier cas permet généralement aux individus d'accumuler de plus grandes quantités d'information, grâce à des modèles de connexions sociales plus efficaces qu'ils sont capables de construire. Ensuite, nous étudions les effets que l'homophilie, ou la tendance à interagir avec des partenaires similaires, a sur l'accumulation des connaissances et la structure sociale. Nous comparons le cas où des personnes qui connaissent les mêmes informations sont plus sus¬ceptibles d'apprendre socialement l'une de l'autre, au cas où les individus qui connaissent des informations différentes sont au contraire plus susceptibles d'apprendre socialement l'un de l'autre. Nous constatons qu'il n'est pas trivial de déterminer quelle stratégie est meilleure que l'autre. En fonction de la possibilité d'oublier l'information, la façon dont les nouveaux partenaires sociaux peuvent être choisis, et la taille de la population, nous déterminons les conditions pour lesquelles chaque stratégie permet d'accumuler plus d'in¬formations, ou d'une manière plus rapide. Pour ces conditions, nous discutons également les caractéristiques topologiques de la structure sociale qui en résulte, les reliant au résultat de la dynamique de l'information. En conclusion, ce travail ouvre la route pour la modélisation de la dynamique conjointe de la diffusion de l'information entre les individus et leurs interactions sociales. Il fournit également un cadre formel pour étudier conjointement les effets de différentes stratégies de choix des partenaires sur la structure sociale et comment elles favorisent l'accumulation de connaissances dans la population.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Ignoring irrelevant visual information aids efficient interaction with task environments. We studied how people, after practice, start to ignore the irrelevant aspects of stimuli. For this we focused on how information reduction transfers to rarely practised and novel stimuli. In Experiment 1, we compared competing mathematical models on how people cease to fixate on irrelevant parts of stimuli. Information reduction occurred at the same rate for frequent, infrequent, and novel stimuli. Once acquired with some stimuli, it was applied to all. In Experiment 2, simplification of task processing also occurred in a once-for-all manner when spatial regularities were ruled out so that people could not rely on learning which screen position is irrelevant. Apparently, changes in eye movements were an effect of a once-for-all strategy change rather than a cause of it. Overall, the results suggest that participants incidentally acquired knowledge about regularities in the task material and then decided to voluntarily apply it for efficient task processing. Such decisions should be incorporated into accounts of information reduction and other theories of strategy change in skill acquisition.