837 resultados para archive virtuelle
Resumo:
The paper argues that the formulation of quantum mechanics proposed by Ghirardi, Rimini and Weber (GRW) is a serious candidate for being a fundamental physical theory and explores its ontological commitments from this perspective. In particular, we propose to conceive of spatial superpositions of non-massless microsystems as dispositions or powers, more precisely propensities, to generate spontaneous localizations. We set out five reasons for this view, namely that (1) it provides for a clear sense in which quantum systems in entangled states possess properties even in the absence of definite values; (2) it vindicates objective, single-case probabilities; (3) it yields a clear transition from quantum to classical properties; (4) it enables to draw a clear distinction between purely mathematical and physical structures, and (5) it grounds the arrow of time in the time-irreversible manifestation of the propensities to localize.
Resumo:
Durante los últimos años el Institut Català d’Arquelogia Clàssica, el Museu d’Història de Tarragona, contando con la colaboración de la Generalitat de Catalunya, han desarrallado el proyecto Planimetría Arqueológica de Tárraco, destinado a la elaboración de una planta arqueológica global en la cual se recogieran intervenciones y noticias referentes a los hallazgos arqueológicos existentes. Este trabajo fue publicado utilizando como plataforma de trabajo un SIG construido para tal fin (Macias et al. 2007). Sin embargo, un problema de difícil solución arqueológica venía dado por las transformaciones urbanísticas de la ciudad, sufridas en su mayor parte a lo largo de los siglos XIX y XX. Éstas habían provocado la pérdida irremediable de gran parte de la elevación que acogiera la ciudad romana, cambiando substancialmente su aspecto original. Ante esta situación y como proyecto paralelo a la realización de la Planimetría Arqueológica de Tarragona se plantearon formas de cubrir este vacío. Se presenta en esta comunicación una propuesta metodológica para la reconstrucción de los grandes «vacíos topográficos » originados por la evolución urbanística de Tarragona mediante la obtención e integración en un SIG de diversos tipos de información documental. En estas zonas rebajadas no resulta posible la obtención de información estratigráfica y arqueológica, por lo que es imprescindible la definición de vías metodológicas alternativas basadas en la extrapolación de datos extraídos de la cartografía histórica, panorámicas del XVI o fotografías tomadas en los siglos XIX y XX. Esta técnica permite aplicar los resultados obtenidos en los nuevos análisis interpretativos, complementando así la interpretación arqueológica de la topografía urbana de la ciudad romana. A partir de esta información, y aplicando funciones y técnicas de interpolación propias de un GIS, se propone aquí un modelo de relieve de la ciudad de Tarraco.
Resumo:
Abstract One of the most important issues in molecular biology is to understand regulatory mechanisms that control gene expression. Gene expression is often regulated by proteins, called transcription factors which bind to short (5 to 20 base pairs),degenerate segments of DNA. Experimental efforts towards understanding the sequence specificity of transcription factors is laborious and expensive, but can be substantially accelerated with the use of computational predictions. This thesis describes the use of algorithms and resources for transcriptionfactor binding site analysis in addressing quantitative modelling, where probabilitic models are built to represent binding properties of a transcription factor and can be used to find new functional binding sites in genomes. Initially, an open-access database(HTPSELEX) was created, holding high quality binding sequences for two eukaryotic families of transcription factors namely CTF/NF1 and LEFT/TCF. The binding sequences were elucidated using a recently described experimental procedure called HTP-SELEX, that allows generation of large number (> 1000) of binding sites using mass sequencing technology. For each HTP-SELEX experiments we also provide accurate primary experimental information about the protein material used, details of the wet lab protocol, an archive of sequencing trace files, and assembled clone sequences of binding sequences. The database also offers reasonably large SELEX libraries obtained with conventional low-throughput protocols.The database is available at http://wwwisrec.isb-sib.ch/htpselex/ and and ftp://ftp.isrec.isb-sib.ch/pub/databases/htpselex. The Expectation-Maximisation(EM) algorithm is one the frequently used methods to estimate probabilistic models to represent the sequence specificity of transcription factors. We present computer simulations in order to estimate the precision of EM estimated models as a function of data set parameters(like length of initial sequences, number of initial sequences, percentage of nonbinding sequences). We observed a remarkable robustness of the EM algorithm with regard to length of training sequences and the degree of contamination. The HTPSELEX database and the benchmarked results of the EM algorithm formed part of the foundation for the subsequent project, where a statistical framework called hidden Markov model has been developed to represent sequence specificity of the transcription factors CTF/NF1 and LEF1/TCF using the HTP-SELEX experiment data. The hidden Markov model framework is capable of both predicting and classifying CTF/NF1 and LEF1/TCF binding sites. A covariance analysis of the binding sites revealed non-independent base preferences at different nucleotide positions, providing insight into the binding mechanism. We next tested the LEF1/TCF model by computing binding scores for a set of LEF1/TCF binding sequences for which relative affinities were determined experimentally using non-linear regression. The predicted and experimentally determined binding affinities were in good correlation.
Resumo:
Diplomityön tavoitteena oli tuoda esiin ratkaisu dokumenttien hallintaan liittyviinongelmiin valmistavassa tuotannossa. Dokumentaation hallinnan perusongelmia valmistuksessa, johon liittyy lakien ja direktiivien asettamia asetuksia sekä vaatimuksia, on mm. paperisten ja sähköisten dokumenttien käytettävyys. Paperiversioiden allekirjoittaminen ja aitouden varmistaminen on helppoa, mutta sähköisen dokumentin allekirjoittaminen ja todentaminen on vielä kehityksen alla. Pitkäaikaisarkistointi sähköisen dokumentin osalta on myös vaativaa, koska pisimmät säilytysajat voivat olla 30 vuotta ja tietotekniikan kehitys tekee huimia harppauksia tässä ajassa. Tutkimusmenetelminä käytettiin kvalitatiivista ja kirjallisuustutkimusta selvittämään dokumentoinnin nykytilaa Savonlinna Works Oy:ssä ja muualla sekä kirjallisuudessa esitettyjä menetelmiä dokumentoinnin kehittämiseen. Työn tuloksena on esitetty dokumenttien hallinnan periaatteet yleisesti ja tuotteiden dokumentointiin liittyvät muutokset, jotka pohjautuvat tutkimustuloksiin. Lisäksi on esitelty kolme järjestelmävaihtoehtoa dokumenttien hallintaan, joiden ominaisuuksia on vertailu keskenään ja pohdittu käytettävyyttä Savonlinna Works Oy:n organisaatiossa.
Resumo:
Cette thèse est consacrée à l'analyse des parcours de vie d'un groupe d'anciens et anciennes élèves d'un établissement scolaire d'élite français (les Ecoles normales supérieures de Fontenay-aux-roses, Saint-Cloud et Lyon - promotions 1981-1987). A partir d'une approche longitudinale, son but est de montrer comment l'articulation entre la socialisation familiale, scolaire, professionnelle et conjugale participe à l'orientation progressive des parcours de vie des normalien-ne-s. Elle vise ainsi à remettre en question l'idée, largement répandue, selon laquelle l'intégration d'un cursus scolaire aussi sélectif et prestigieux que celui des ENS garantirait à Lou.te.s les élèves les mêmes chances d'accès aux positions dominantes de l'espace social. Alliant l'analyse de trois types de données (archives, questionnaires, entretiens), cette thèse met en évidence la manière dont inégalités relatives à l'origine sociale et au sexe se recomposent, une fois les portes de l'institution franchies. Elle montre que, dans un contexte socio-historique marqué par une forte expansion scolaire, il est plus que jamais nécessaire d'opérer une articulation systématique entre l'analyse des conditions sociales de réussite scolaire et l'analyse des conditions sociales d'exploitation des titres scolaires, afin de rendre compte des processus complexes de reproduction des inégalités et d'esquisser certaines de leur conditions de dépassement. Abstract: This thesis is dedicated to the life course analysis of alumni from one of the most prestigious French Grandes écoles (the Ecoles Normales Supérieures of Fontenay-aux- roses, Saint-Cloud and Lyon - classes of 1981.-1987). Through a longitudinal perspective, it aims to analyze how family, educational, professional and conjugal socialization processes combine to shape the life course of this particular group of graduates. The main goal of this research is to question the widespread belief that the French Grandes Ecoles guarantee automatic access to the very top of the professional and social hierarchy for all of their graduates. Based on a mixed methods research design (archive data, a questionnaire survey and semi-structured interviews), this thesis shows that, according to social origin and gender, ENS graduates actually adopt a diverse range of professional careers. It show how, in a socio-historical context characterized by a general increase in educational levels, any analysis of social inequalities should combine two levels of analysis: the social conditions of access to educational credentials, on the one hand, and the labor market value of formal qualifications, on the other hand. Our results suggest that the combined analysis of these two processes provide useful insight into the increasingly complex processes of social reproduction - and suggest fruitful perspectives for reducing some sources of inequality.
Resumo:
The widespread implementation of GIS-based 3D topographical models has been a great aid in the development and testing of archaeological hypotheses. In this paper, a topographical reconstruction of the ancient city of Tarraco, the Roman capital of the Tarraconensis province, is presented. This model is based on topographical data obtained through archaeological excavations, old photographic documentation, georeferenced archive maps depicting the pre-modern city topography, modern detailed topographical maps and differential GPS measurements. The addition of the Roman urban architectural features to the model offers the possibility to test hypotheses concerning the ideological background manifested in the city shape. This is accomplished mainly through the use of 3D views from the main city accesses. These techniques ultimately demonstrate the ‘theatre-shaped’ layout of the city (to quote Vitrubius) as well as its southwest oriented architecture, whose monumental character was conceived to present a striking aspect to visitors, particularly those arriving from the sea.
Resumo:
The video installations of Freya Powell's first exhibition in Barcelona call for an analysis of the links between memory and the archive, between compilation, registration, and the traces of History. Powell's work establishes a fine link between the memory of those sentenced to death in the United States, the memory of the Second World War, the artist's own memory, and the different world maps produced by colonial history. This link forces us to take into account our own connection not only with the voices and words that have been archived, but also with those voices that we want to hear and register.
Resumo:
L"objectiu de la contribució que presentem és força senzill d"entendre: hem volgut donar forma a una activitat viscuda per recordar-la i per aprofitar-la quan l"haguem de menester. Com ho hem fet?, doncs materialitzant uns fets, uns pensaments i unes idees en forma de document, el qual a hores d"ara ja forma part del nostre fons personal. La finalitat del document, però, va més enllà: volem donar a conèixer la vàlua dels fons personals com a recurs estratègic per a l"aprenentatge de l"Arxivística. Hem volgut compartir la nostra experiència en aquest canal de comunicació professional perquè pensem, modestament, que treballs com aquest poden ser noves formes d"avançar en el progrés teòric de l"Arxivística.
Resumo:
La thèse essaie de montrer comment il est possible d'offrir une implémentation fonctionnelle d'un agent doté d'une conscience (psychologique). Une première étape étudie les différentes approches, définitions et théories de la conscience proposées par la littérature. Cette étude dégage plus particulièrement un modèle psychologique qui offre une modélisation des fonctionnalités de la conscience, de ses éléments constitutifs et des relations entre ces éléments. Cet effort de formalisation permet d'identifier les corrélations computionnelles du modèle ouvrant ainsi la voie à une implémentation fonctionnelle de la conscience. Une seconde étape réuni les outils et méthodes informatiques existants en vue de procéder à une telle implémentation. En particulier, celle-ci repose sur un modèle de communication permettant d'élaborer une machine virtuelle basée sur des processus concurrents synchronisés. La troisième étape consiste à implémenter les corrélations computationnelles dont l'une est une fonction de délibération qui, après une analyse itérative de son état et de son environnement (machine à état), aboutit à la sélection d'une action. Une deuxième fonction est la formation de contextes, autrement dit l'apprentissage d'automatismes, consistant à compiler la délibération. Cette compilation s'opère grâce à un processus concurrent reflétant le processus de délibération, dotant ainsi l'agent de la capacité d'observer son propre fonctionnement. La thèse se conclut en proposant quelques axes de recherches et d'applications futures susceptibles de prolonger le travail.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
Asiakasomisteiset osuuskunnat ovat menestyneet Suomessa erittäin hyvin. Niiden ymmärtäminen yritysmuotona on kuitenkin toistaiseksi perustunut lähinnä muilla kuin liiketaloustieteen oppialoilla tehdyille tutkimuksille. Johtaminen ja organisaatiot -oppialalla asiakasomisteista osuustoimintaa on tutkittu erittäin vähän. Tämä väitöskirja pyrkii vastaamaan osuustoiminnan liiketaloustieteellisen tutkimuksen kehittämisen haasteeseen keskittymällä omistajuuteen, yritystoiminnan erityispiirteiden ytimeen. Tutkimus osallistuu osuustoiminnallisesta omistajuudesta Suomessa käytävään akateemiseen keskusteluun esittelemällä viitekehyksen asiakasomisteisen osuuskunnan omistajuuden tulkitsemiseen. Tutkimuksessa pyritään ymmärtämään asiakasomistajuuden ulottuvuuksia, kuten ne rakentuvat osuustoiminnan asiantuntijoiden puheenvuoroissa. Asiakasomistajuutta ei siis analysoida "rivijäsenten" näkökulmasta, vaan tulkinta rajoittuu OP-ryhmän osuuspankkien ja S-ryhmän osuuskauppojen johtajien ja hallintohenkilöiden sekä tutkijoidentutkimusaineistossa esittämiin selontekoihin. Aineisto koostuu kaikkiaan kolmestakymmenestäviidestä haastattelusta sekä dokumenttiaineistosta. Tulkittavia tekstejä lähestytään siten, että niiden ajatellaan ylläpitävän ja aktiivisesti rakentavan asiakasomisteisten osuuskuntien omistajuutta. Väitöskirjassa rakentuva asiakasomistajuuden malli pitää sisällään sekä taloudellisrationaalisen että psykologisen omistajuuden niin yksittäisen asiakasomistajan kuin jäsenyhteisön näkökulmasta. Työn teoreettisena kontribuutiona on erityisesti asiakasomisteisen osuuskunnan omistajuuden psykologisen ulottuvuuden määrittely sekä sen liittäminen yhteisötasolla paikallisuuteen ja alueellisuuteen. Edellä mainittujen omistajuuden ulottuvuuksien ollessa kiinteästi sidoksissa asiakasomisteisten osuuskuntien rakenteeseen ja toimintatapaan, ne tarjoavat kehityspohjan kyseisten yritysten johtamista ja omistajaohjausta käsitteleville teorioille.
Resumo:
Durant la última dècada hem viscut l’explosió de la fotografia digital. Les possibilitats de captar imatges s’ha multiplicat de manera gairebé infinita sense implicar costos afegits pel fotògraf. Això ens obliga a replantejar-nos la necessitat d’establir uns criteris ben definits per avaluar, triar i eliminar les fotografies que ingressen als nostres arxius. El treball que es presenta aquí té com a objectiu establir uns protocols per tal de poder aplicar aquests procediments al nous fons que passin a formar part del nostre patrimoni documental. Finalment, s’ha dut a terme l’experiència d’entregar al productor d’un fons part de la seva documentació per tal que ell l’avalués i després comparar els resultats amb l’avaluació duta a terme des de l’arxiu. Paraules clau: avaluació, tria, eliminació, fotografia born-digital, ingrés, metadades, arxiu digital, formats de preservació
Resumo:
[spa]Este artículo estudia la presencia en Roma de un colectivo de notarios catalanes durante los siglos XVI y XVII. Se trata de los notarios matriculados en el colegio de escritores del archivo de la curia, una institución que tenía la función de crear notarios. Todo notario extranjero que llegaba a Roma tenía que matricularse en este colegio. En los libros de matrícula se insertan diversos datos de cada uno de los notarios, además del signum. Se plantea también la hipótesis de que estos notarios trabajen en Roma ejerciendo el oficio notarial. Por ello se analiza la actividad de algunos de estos notarios en la ciudad de Roma a través de la documentación notarial conservada actualmente en los archivos romanos.
Resumo:
L"objectiu de la contribució que presentem és força senzill d"entendre: hem volgut donar forma a una activitat viscuda per recordar-la i per aprofitar-la quan l"haguem de menester. Com ho hem fet?, doncs materialitzant uns fets, uns pensaments i unes idees en forma de document, el qual a hores d"ara ja forma part del nostre fons personal. La finalitat del document, però, va més enllà: volem donar a conèixer la vàlua dels fons personals com a recurs estratègic per a l"aprenentatge de l"Arxivística. Hem volgut compartir la nostra experiència en aquest canal de comunicació professional perquè pensem, modestament, que treballs com aquest poden ser noves formes d"avançar en el progrés teòric de l"Arxivística.