987 resultados para Bell, Polinômios de
Resumo:
Ce mémoire prend la forme d’une réflexion critique sur le modèle proposé par Hosler afin d’expliquer les taux quantifiés d’étain et d’arsénique dans des objets de statut métalliques Mésoaméricains provenant principalement de l’Occident mésoaméricain et couvrant les deux phases de développement de la métallurgie mésoaméricaine. Ces objets font partie de la collection du Museo Regional de Guadalajara. Plus particulièrement, ce mémoire s’intéresse aux grelots mésoaméricains puisqu’ils représentent un élément important de la métallurgie préhispanique en Mésoamérique. Cette réflexion critique soulève plusieurs considérations techniques, méthodologiques, étymologiques, iconographiques, ethnohistoriques et logiques du modèle de Hosler relativement à la couleur des alliages constituant les grelots mésoaméricains. Les paramètres sur lesquels Hosler base son modèle sont questionnables à plusieurs niveaux. Ainsi, le fait que les niveaux d’arsenic ou d’étain observés dans les alliages cupriques de biens utilitaires sont généralement inférieurs à ceux quantifiés dans les alliages cupriques usités pour la fabrication de biens de statut de la Période 2 pourrait s’expliquer par le fait qu’il s’agit de deux méthodes de fabrication distinctes ayant des contraintes techniques différentes ou que ces artéfacts ont des paramètres et des fonctions distinctes. Les limites de l’association soleil-or, lune-argent y sont également exposées et un chapitre est consacré à la sonorité.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.
Resumo:
Contamination of environmental water by pathogenic microorganisms and subsequent infections originated from such sources during different contact and non- contact recreational activities are a major public health problem worldwide particularly in developing countries. The main pathogen frequently associated with enteric infection in developing countries are Salmonella enterica serovar typhi and paratyphi. Although the natural habitat of Salmonella is the gastrointestinal tract of animals, it find its way into natural water through faecal contamination and are frequently identified from various aquatic environments (Baudart et al., 2000; Dionisio et al., 2000; Martinez -Urtaza et al., 2004., Abhirosh et al., 2008). Typhoid fever caused by S. enterica serotype typhi and paratyphi are a common infectious disease occurring in all the parts of the world with its highest endemicity in certain parts of Asia, Africa, Latin America and in the Indian subcontinent with an estimated incidence of 33 million cases each year with significant morbidity and mortality (Threlfall, 2002). In most cases the disease is transmitted by polluted water (Girard et al., 2006) because of the poor hygienic conditions, inadequate clean water supplies and sewage treatment facilities. However in developed countries the disease is mainly associated with food (Bell et al., 2002) especially shellfish (Heinitz et al., 2000
Resumo:
Giant freshwater prawn, Macrobrachium rosenbergii (de Man), is an important commercial species with considerable export value, ideal for cultivation under low saline conditions and in freshwater zones (Kurup 1994). However, despite more than a decade of research on its larval production systems, vibriosis still hampers seed production resulting in high mortality rates. Among the different species of vibrios, Vibrio alginolyticus has been isolated frequently from diseased shrimp as the aetiological agent of vibriosis and has been described as a principal pathogen of both penaeids and nonpenaeids (Lightner 1988; Baticados, Cruz-Lacierda, de la Cruz, Duremdez-Fernandez, Gacutan, Lavilla- Pitogo & Lio-Po 1990; Mohney, Lightner & Bell 1994; Lee, Yu, Chen, Yang & Liu 1996). Vibrio fluvialis, V. alginolyticus, V. cholerae non-O1 (Fujioka & Greco 1984), Aeromonas liquifaciens and V. anguillarum (Colorni 1985) have been isolated from the larvae of M. rosenbergii. A profound relationship between the abundance of members of the family Vibrionaceae and larval mortality (Singh 1990) and the predominance of Vibrio in eggs, larvae and post-larvae of M. rosenbergii (Hameed, Rahaman, Alagan & Yoganandhan 2003) was reported. The present paper reports the isolation, characterization, pathogenicity and antibiotic sensitivity of V. alginolyticus associated with M. rosenbergii larvae during an occurrence of severe mass mortality at the ninth larval stage.
Resumo:
The paper presents a compact planar Ultra Wide Band ¯lter employing folded stepped impedance resonators with series capacitors and dumb bell shaped defected ground structures. An interdigital quarter wavelength coupled line is used for achieving the band pass characteristics. The transmission zeros are produced by stepped impedance resonators. The ¯lter has steep roll o® rate and good attenuation in its lower and upper stop bands, contributed by the series capacitor and defected ground structures respectively.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Dar una explicación de las razones por las que fallan los alumnos a lo largo de su escolarización, viendo que variables tienen mayor influencia. Basándose en el idea de la igualdad de oportunidades, se pretende ver la influencia tanto de variables individuales, como de las diferencias, medio ambientales, que contribuyen a aumentar estas últimas. La muestra está formada por 561 alumnos que representan el 3,43 por ciento de la población escolar total. La muestra se selecciona por zonas (urbana, semiurbana y rural) y por tipo de centro (públicos y privados). Los alumnos se distribuyen en tres grupos: A) Los que no han tenido nunca evaluaciones negativas; B) Los que han tenido alguna; C) Los que han repetido uno o más cursos. Se realizó un estudio transversal, en el que se tuvieron en cuenta como variables influyentes en el rendimiento: inteligencia general, factor verbal, razonamiento, cálculo, adaptación, autoconcepto, técnicas de trabajo intelectual, nivel socio-económico familiar, nivel cultural familiar, expectativas familiares, expectativas del alumno, expectativas del profesor, participación de los padres en el proceso educativo. D-48: inteligencia general. TEA-2: verbal, razonamiento y cálculo. Bell: adaptación. Autoconcepto: facilitado por la cátedra de Pedagogía experimental de la Universidad de Oviedo. Pozar: inventario de habitos de estudio. Cuestionario elaborado por el Servicio de Orientación escolar y Vocacional de Asturias, para analizar los niveles socioeconómicos, culturales, expectativas, participación de los padres, número de hermanos. Sólo un 48 por ciento logra realizar la EGB sin suspender alguna de las calificaciones finales. En el test TEA-2 los alumnos del grupo B están en un 46 por ciento en el nivel bajo, los del grupo C están en un 76 por ciento. Los alumnos del grupo A obtienen mayores puntuaciones en el test de autoconcepto que los de los otros dos grupos. Los alumnos opinan que sus padres se preocupan por su educación, un 97 por ciento del total opinan que se preocupan mucho o demasiado. Se establece una correlación positiva entre nivel socio-económico y rendimiento académico. En el grupo C, el 35 por ciento opina que sus hijos no deben realizar más estudios una vez terminada la EGB, en el grupo C esta opinión es del 13 por ciento y en el grupo A del 3 por ciento. Las variables no actúan solas y de forma individual, sino interactuando entre sí, y sólo una estrategia global que sea capaz de generar un cambio de las situaciones que rodean al alumno, dentro y fuera de la escuela, podría crear un sistema educativo, que resulte coherente con una sociedad más igualitaria y justa.
Resumo:
Obtener el perfil de los alumnos del Ciclo Superior (octavo de EGB) para ofrecer un claro ejemplo de cómo se realiza un estudio de carácter orientativo a nivel escolar e intergrupal. 99 alumnos de octavo de EGB del Colegio Público San Pablo de la Eria distribuidos en tres aulas (a, b, c). Tras una selección y descripción, tanto de la muestra como de los instrumentos o pruebas, se pasa a la aplicación de los mismos, la elaboración de planillas, gráficos y análisis estadísticos de los datos obtenidos, para concluir con una interpretación estadística de los mismos. Las variables estudiadas son: inteligencia, aptitudes, adaptación personal y social e intereses profesionales. Test de factor 'G' escala 2 de Cattell. Test de aptitudes escolares TEA-2 de Thurstone. Cuestionario de adaptación para adolescentes de Bell (adaptación española del doctor E. Cerdá). Test de intereses profesionales de Luján. El análisis de la información obtenida se realiza a traves del cálculo de medias y desviaciones, correlaciones entre pruebas y grupos, contrastes de medias y análisis de varianza. En cuanto a la correlación entre pruebas se comprueba que en los tres grupos hay una correlación positiva, aunque baja, entre G-2 y TEA-2, sin embargo, la correlación entre G-2 y Bell y TEA-2 y Bell son muy bajas. Con respecto a los tests G-2 y TEA-2 se observa que los grupos no presentan variaciones con respecto al grupo normativo. En el nivel de inteligencia general no hay diferencias significativas entre los tres grupos. En las aptitudes sí se observan diferencias significativas, siendo 'a' el grupo que posee la media más elevada con gran diferencia respecto a 'c'. En el nivel de adaptación tampoco se observan diferencias significativas, si bien un análisis más pormenorizado refleja que en general 'a' es el grupo que presenta el nivel más óptimo en adaptación general, 'c' es el que tiene peor nivel tanto en adaptación social como familiar y emocional, y 'b' tendría una situación intermedia aunque aproximándose más a 'c' que a 'a'. Los intereses profesionales mostrados están influidos por el grado de desarrollo de los componentes de la estructura mental de cada uno de los alumnos, observándose diferencias significativas entre la muestra estudiada tanto en las preferencias por el campo profesional como por el campo de las actividades. Existe una diferencia significativa entre los tres grupos en función del rendimiento de los alumnos. Es evidente que el Colegio forma los grupos en función de dicho rendimiento. El nivel global de rendimiento académico es medio, salvo excepciones. La orientación es muy necesaria en el Centro escolar, sobre todo en octavo, con vistas a un futuro próximo.
Resumo:
In previous work (Olshausen & Field 1996), an algorithm was described for learning linear sparse codes which, when trained on natural images, produces a set of basis functions that are spatially localized, oriented, and bandpass (i.e., wavelet-like). This note shows how the algorithm may be interpreted within a maximum-likelihood framework. Several useful insights emerge from this connection: it makes explicit the relation to statistical independence (i.e., factorial coding), it shows a formal relationship to the algorithm of Bell and Sejnowski (1995), and it suggests how to adapt parameters that were previously fixed.
Resumo:
In the first part of this paper we show a similarity between the principle of Structural Risk Minimization Principle (SRM) (Vapnik, 1982) and the idea of Sparse Approximation, as defined in (Chen, Donoho and Saunders, 1995) and Olshausen and Field (1996). Then we focus on two specific (approximate) implementations of SRM and Sparse Approximation, which have been used to solve the problem of function approximation. For SRM we consider the Support Vector Machine technique proposed by V. Vapnik and his team at AT&T Bell Labs, and for Sparse Approximation we consider a modification of the Basis Pursuit De-Noising algorithm proposed by Chen, Donoho and Saunders (1995). We show that, under certain conditions, these two techniques are equivalent: they give the same solution and they require the solution of the same quadratic programming problem.
Resumo:
The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.