984 resultados para Bell founders.
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Depuis les quatre dernières décennies, des publications célèbres analysent l’histoire, l’art et l’architecture de la psychiatrie de la fin du dix-neuvième siècle afin de dénoncer les aspects négatifs de la science psychiatrique : voyeurisme sur la personne du fou, déshumanisation de l’asile, autoglorification du psychiatre, abus de pouvoir. C’est ce regard à sens unique que j’ai voulu déjouer dans cette thèse en consacrant ma recherche aux œuvres produites en amont de cette période. Leur analyse a permis de prendre conscience de l’autre versant de la science psychiatrique, celui qui est philanthropique, bienveillant et animé d’un réel espoir de guérison. Mon objectif a été de construire, par l’analyse de ce domaine iconographique inédit ou négligé, une nouvelle histoire de la naissance de la psychiatrie, celle de sa culture visuelle. Une histoire qui révèle ses idéaux du début du siècle et les écarts à ses propres aspirations par son besoin de légitimation et de professionnalisation. Ma thèse propose une enquête épistémologique de l’histoire de l’aliénisme français, par le biais du discours porté par les œuvres d’art commandées par ses fondateurs. Le premier chapitre est consacré aux premiers asiles conçus comme le prolongement du corps du psychiatre et ils sont analysés selon les valeurs de la nouvelle science. Je me suis appliquée à y démontrer que le concept même d’asile, agissant sur nos sensations et sur notre cognition, relève autant des théories architecturales des Lumières que des besoins spécifiques de l’aliénisme. Le deuxième chapitre identifie, pour la première fois, un ensemble de portraits de la première génération d’aliénistes et de leurs disciples. J’argumente que ce corpus voulait imposer l’image de l’aliéniste comme modèle de raison et établir sa profession. Pour ce faire, il s’éloigne des premières représentations des aliénistes, paternalistes, et philanthropiques. Le troisième chapitre analyse les représentations des aliénés produites pour les traités fondateurs de la psychiatrie publiés en France. Le vecteur de mon analyse et le grand défi pour l’art et la science viennent de l’éthique des premiers psychiatres : comment représenter la maladie mentale sans réduire le malade à un être essentiellement autre ? Une première phase de production accorde à l’aliéné autonomie et subjectivité. Mais la nécessité d’objectiver le malade pour répondre aux besoins scientifiques de l’aliénisme a, à nouveau, relégué l’aliéné à l’altérité. Le sujet du quatrième et dernier chapitre est le cycle décoratif de la chapelle de l’hospice de Charenton (1844-1846), principal asile parisien de l’époque. J’y interroge comment l’art religieux a pu avoir un rôle face à la psychiatrie, en empruntant à l’iconographie religieuse sa force et sa puissance pour manifester l’autorité de l’aliéniste jusque dans la chapelle de l’asile. Le dix-neuvième siècle a été porteur d’espoirs en la reconnaissance de la liberté des êtres et de l’égalité des droits entre les personnes. Ces espoirs ont pourtant été déçus et les œuvres de l’aliénisme montrent un nouvel aspect de ces promesses non tenues envers les groupes fragilisés de la société, promesses de reconnaissance de leur subjectivité, de leur autonomie et de leur dignité.
Resumo:
Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.
Resumo:
La pensée de Nietzsche a joué un rôle déterminant et récurrent dans les discours et les débats qui ont formé et continuent de façonner le domaine de l’histoire de l’art, mais aucune analyse systématique de cette question n’a encore vu le jour. L’influence de Nietzsche a été médiée par divers interlocuteurs, historiens de l’art et philosophes, qui ont encadré ces discussions, en utilisant les écrits du philosophe comme toile de fond de leurs propres idées. Ce mémoire souhaite démontrer que l’impact de Nietzsche dans le champ de l’histoire de l’art existe mais qu’il fut toujours immergé ou éclipsé, particulièrement dans le contexte anglo-américain, l’emphase étant placée sur les médiateurs de ses idées en n’avouant que très peu d’engagement direct avec son œuvre. En conséquence, son importance généalogique pour certains fondateurs de la discipline reste méconnue; sa présence réellement féconde se traduit plutôt comme une absence ou une présence masquée. En vue de démontrer ce propos, nous regardons donc le contexte nietzschéen qui travaille les écrits de certains historiens de l’art, comme Jacob Burckhardt et Aby Warburg, ou des philosophes et d’écrivains ayant marqué la discipline de l’histoire de l’art (plus particulièrement dans le cadre de l’influence de la « French Theory » sur l’histoire de l’art anglo-américaine depuis la fin des années 1970) : Martin Heidegger, Michel Foucault, Jacques Derrida, Gilles Deleuze et Georges Bataille. Nous examinons certaines voies par lesquelles ses idées ont acquis une pertinence pour l’histoire de l’art avant de proposer les raisons potentielles de leur occlusion ultérieure. Nous étudions donc l’évolution des discours multiples de l’histoire comme domaine d’étude afin de situer la contribution du philosophe et de cerner où et comment ses réflexions ont croisé celles des historiens de l’art qui ont soit élargi ou redéfini les méthodes et les structures d’analyse de leur discipline. Ensuite nous regardons « l’art » de Nietzsche en le comparant avec « l’art de l’histoire de l’art » (Preziosi 2009) afin d’évaluer si ces deux expressions peuvent se rejoindre ou s’il y a fondamentalement une incompatibilité entre les deux, laquelle pourrait justifier ou éclairer la distance entre la pensée nietzschéenne sur l’art et la discipline de l’histoire de l’art telle qu’elle s’institutionnalise au moment où le philosophe rédige son œuvre.
Resumo:
Contamination of environmental water by pathogenic microorganisms and subsequent infections originated from such sources during different contact and non- contact recreational activities are a major public health problem worldwide particularly in developing countries. The main pathogen frequently associated with enteric infection in developing countries are Salmonella enterica serovar typhi and paratyphi. Although the natural habitat of Salmonella is the gastrointestinal tract of animals, it find its way into natural water through faecal contamination and are frequently identified from various aquatic environments (Baudart et al., 2000; Dionisio et al., 2000; Martinez -Urtaza et al., 2004., Abhirosh et al., 2008). Typhoid fever caused by S. enterica serotype typhi and paratyphi are a common infectious disease occurring in all the parts of the world with its highest endemicity in certain parts of Asia, Africa, Latin America and in the Indian subcontinent with an estimated incidence of 33 million cases each year with significant morbidity and mortality (Threlfall, 2002). In most cases the disease is transmitted by polluted water (Girard et al., 2006) because of the poor hygienic conditions, inadequate clean water supplies and sewage treatment facilities. However in developed countries the disease is mainly associated with food (Bell et al., 2002) especially shellfish (Heinitz et al., 2000
Resumo:
Giant freshwater prawn, Macrobrachium rosenbergii (de Man), is an important commercial species with considerable export value, ideal for cultivation under low saline conditions and in freshwater zones (Kurup 1994). However, despite more than a decade of research on its larval production systems, vibriosis still hampers seed production resulting in high mortality rates. Among the different species of vibrios, Vibrio alginolyticus has been isolated frequently from diseased shrimp as the aetiological agent of vibriosis and has been described as a principal pathogen of both penaeids and nonpenaeids (Lightner 1988; Baticados, Cruz-Lacierda, de la Cruz, Duremdez-Fernandez, Gacutan, Lavilla- Pitogo & Lio-Po 1990; Mohney, Lightner & Bell 1994; Lee, Yu, Chen, Yang & Liu 1996). Vibrio fluvialis, V. alginolyticus, V. cholerae non-O1 (Fujioka & Greco 1984), Aeromonas liquifaciens and V. anguillarum (Colorni 1985) have been isolated from the larvae of M. rosenbergii. A profound relationship between the abundance of members of the family Vibrionaceae and larval mortality (Singh 1990) and the predominance of Vibrio in eggs, larvae and post-larvae of M. rosenbergii (Hameed, Rahaman, Alagan & Yoganandhan 2003) was reported. The present paper reports the isolation, characterization, pathogenicity and antibiotic sensitivity of V. alginolyticus associated with M. rosenbergii larvae during an occurrence of severe mass mortality at the ninth larval stage.
Resumo:
The paper presents a compact planar Ultra Wide Band ¯lter employing folded stepped impedance resonators with series capacitors and dumb bell shaped defected ground structures. An interdigital quarter wavelength coupled line is used for achieving the band pass characteristics. The transmission zeros are produced by stepped impedance resonators. The ¯lter has steep roll o® rate and good attenuation in its lower and upper stop bands, contributed by the series capacitor and defected ground structures respectively.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Dar una explicación de las razones por las que fallan los alumnos a lo largo de su escolarización, viendo que variables tienen mayor influencia. Basándose en el idea de la igualdad de oportunidades, se pretende ver la influencia tanto de variables individuales, como de las diferencias, medio ambientales, que contribuyen a aumentar estas últimas. La muestra está formada por 561 alumnos que representan el 3,43 por ciento de la población escolar total. La muestra se selecciona por zonas (urbana, semiurbana y rural) y por tipo de centro (públicos y privados). Los alumnos se distribuyen en tres grupos: A) Los que no han tenido nunca evaluaciones negativas; B) Los que han tenido alguna; C) Los que han repetido uno o más cursos. Se realizó un estudio transversal, en el que se tuvieron en cuenta como variables influyentes en el rendimiento: inteligencia general, factor verbal, razonamiento, cálculo, adaptación, autoconcepto, técnicas de trabajo intelectual, nivel socio-económico familiar, nivel cultural familiar, expectativas familiares, expectativas del alumno, expectativas del profesor, participación de los padres en el proceso educativo. D-48: inteligencia general. TEA-2: verbal, razonamiento y cálculo. Bell: adaptación. Autoconcepto: facilitado por la cátedra de Pedagogía experimental de la Universidad de Oviedo. Pozar: inventario de habitos de estudio. Cuestionario elaborado por el Servicio de Orientación escolar y Vocacional de Asturias, para analizar los niveles socioeconómicos, culturales, expectativas, participación de los padres, número de hermanos. Sólo un 48 por ciento logra realizar la EGB sin suspender alguna de las calificaciones finales. En el test TEA-2 los alumnos del grupo B están en un 46 por ciento en el nivel bajo, los del grupo C están en un 76 por ciento. Los alumnos del grupo A obtienen mayores puntuaciones en el test de autoconcepto que los de los otros dos grupos. Los alumnos opinan que sus padres se preocupan por su educación, un 97 por ciento del total opinan que se preocupan mucho o demasiado. Se establece una correlación positiva entre nivel socio-económico y rendimiento académico. En el grupo C, el 35 por ciento opina que sus hijos no deben realizar más estudios una vez terminada la EGB, en el grupo C esta opinión es del 13 por ciento y en el grupo A del 3 por ciento. Las variables no actúan solas y de forma individual, sino interactuando entre sí, y sólo una estrategia global que sea capaz de generar un cambio de las situaciones que rodean al alumno, dentro y fuera de la escuela, podría crear un sistema educativo, que resulte coherente con una sociedad más igualitaria y justa.
Resumo:
Obtener el perfil de los alumnos del Ciclo Superior (octavo de EGB) para ofrecer un claro ejemplo de cómo se realiza un estudio de carácter orientativo a nivel escolar e intergrupal. 99 alumnos de octavo de EGB del Colegio Público San Pablo de la Eria distribuidos en tres aulas (a, b, c). Tras una selección y descripción, tanto de la muestra como de los instrumentos o pruebas, se pasa a la aplicación de los mismos, la elaboración de planillas, gráficos y análisis estadísticos de los datos obtenidos, para concluir con una interpretación estadística de los mismos. Las variables estudiadas son: inteligencia, aptitudes, adaptación personal y social e intereses profesionales. Test de factor 'G' escala 2 de Cattell. Test de aptitudes escolares TEA-2 de Thurstone. Cuestionario de adaptación para adolescentes de Bell (adaptación española del doctor E. Cerdá). Test de intereses profesionales de Luján. El análisis de la información obtenida se realiza a traves del cálculo de medias y desviaciones, correlaciones entre pruebas y grupos, contrastes de medias y análisis de varianza. En cuanto a la correlación entre pruebas se comprueba que en los tres grupos hay una correlación positiva, aunque baja, entre G-2 y TEA-2, sin embargo, la correlación entre G-2 y Bell y TEA-2 y Bell son muy bajas. Con respecto a los tests G-2 y TEA-2 se observa que los grupos no presentan variaciones con respecto al grupo normativo. En el nivel de inteligencia general no hay diferencias significativas entre los tres grupos. En las aptitudes sí se observan diferencias significativas, siendo 'a' el grupo que posee la media más elevada con gran diferencia respecto a 'c'. En el nivel de adaptación tampoco se observan diferencias significativas, si bien un análisis más pormenorizado refleja que en general 'a' es el grupo que presenta el nivel más óptimo en adaptación general, 'c' es el que tiene peor nivel tanto en adaptación social como familiar y emocional, y 'b' tendría una situación intermedia aunque aproximándose más a 'c' que a 'a'. Los intereses profesionales mostrados están influidos por el grado de desarrollo de los componentes de la estructura mental de cada uno de los alumnos, observándose diferencias significativas entre la muestra estudiada tanto en las preferencias por el campo profesional como por el campo de las actividades. Existe una diferencia significativa entre los tres grupos en función del rendimiento de los alumnos. Es evidente que el Colegio forma los grupos en función de dicho rendimiento. El nivel global de rendimiento académico es medio, salvo excepciones. La orientación es muy necesaria en el Centro escolar, sobre todo en octavo, con vistas a un futuro próximo.
Resumo:
In previous work (Olshausen & Field 1996), an algorithm was described for learning linear sparse codes which, when trained on natural images, produces a set of basis functions that are spatially localized, oriented, and bandpass (i.e., wavelet-like). This note shows how the algorithm may be interpreted within a maximum-likelihood framework. Several useful insights emerge from this connection: it makes explicit the relation to statistical independence (i.e., factorial coding), it shows a formal relationship to the algorithm of Bell and Sejnowski (1995), and it suggests how to adapt parameters that were previously fixed.
Resumo:
In the first part of this paper we show a similarity between the principle of Structural Risk Minimization Principle (SRM) (Vapnik, 1982) and the idea of Sparse Approximation, as defined in (Chen, Donoho and Saunders, 1995) and Olshausen and Field (1996). Then we focus on two specific (approximate) implementations of SRM and Sparse Approximation, which have been used to solve the problem of function approximation. For SRM we consider the Support Vector Machine technique proposed by V. Vapnik and his team at AT&T Bell Labs, and for Sparse Approximation we consider a modification of the Basis Pursuit De-Noising algorithm proposed by Chen, Donoho and Saunders (1995). We show that, under certain conditions, these two techniques are equivalent: they give the same solution and they require the solution of the same quadratic programming problem.
Resumo:
The Support Vector Machine (SVM) is a new and very promising classification technique developed by Vapnik and his group at AT&T Bell Labs. This new learning algorithm can be seen as an alternative training technique for Polynomial, Radial Basis Function and Multi-Layer Perceptron classifiers. An interesting property of this approach is that it is an approximate implementation of the Structural Risk Minimization (SRM) induction principle. The derivation of Support Vector Machines, its relationship with SRM, and its geometrical insight, are discussed in this paper. Training a SVM is equivalent to solve a quadratic programming problem with linear and box constraints in a number of variables equal to the number of data points. When the number of data points exceeds few thousands the problem is very challenging, because the quadratic form is completely dense, so the memory needed to store the problem grows with the square of the number of data points. Therefore, training problems arising in some real applications with large data sets are impossible to load into memory, and cannot be solved using standard non-linear constrained optimization algorithms. We present a decomposition algorithm that can be used to train SVM's over large data sets. The main idea behind the decomposition is the iterative solution of sub-problems and the evaluation of, and also establish the stopping criteria for the algorithm. We present previous approaches, as well as results and important details of our implementation of the algorithm using a second-order variant of the Reduced Gradient Method as the solver of the sub-problems. As an application of SVM's, we present preliminary results we obtained applying SVM to the problem of detecting frontal human faces in real images.
Resumo:
Estudiar como influye la aplicación de la técnica economía de fichas, en la modificación de la conducta, aplicada al campo educativo y concretamente como se aplica en el rendimiento académico de los alumnos y los resultados que se obtienen. La muestra está constituída por 30 sujetos, divididos en tres clases de Educación Especial, aula A, aula B, y aula C. Las dos primeras pertenecen al Colegio Nacional Gómez Moreno; el aula C pertenece al Colegio Nacional Inmaculada del Triunfo. Ambos colegios están ubicados en Granada. La investigación, en cada aula, esta compuesta de cuatro sesiones de observación cualitativa, con una hora de duración cada una. Se aplican distintas variables dependientes, como son la conducta académica y el rendimiento académico, asi como variables extrañas referidas al ambiente familiar. Para ello se utilizan dos tipos de diseño intrasujeto: el diseño ABA y el diseño ABAB. Test de inteligencia de Wechsler, cuestionario de adaptacion de Bell, escalas de actividad para padres y maestros, sociograma de Moreno. Método de división por la mediana, test binomial, prueba Chi cuadrado, método mínimo cuadrados, prueba T y análisis de covarianza. Las contingencias de reforzamiento con fichas para la conducta académica apropiada, puestas en marcha en las aulas, resultan efectivas para mejorar la conducta académica apropiada. En ambos grupos experimentales se produce un índice de ganancias en el WISC, Bell y escalas de actividad para padres y maestros, que resulta significativo al compararlo con el índice de ganancias exprimentado por el grupo de control. Las contingencias de fichas, dirigidas a la conducta apropiada, se revelan más eficaces que las contingencias de fichas dirigidas al rendimiento positivo, para mejorar la conducta. Los tests sociométricos ponen de manifiesto que los programas de fichas dan lugar a cambios considerables en las estructuras de los grupos. Se pone de manifiesto, que durante la puesta en marcha del programa de economía de fichas decrece considerablemente el nivel de absentismo escolar. Estos tipos de programas deberían comenzarse al inicio del año escolar y prolongarse durante largo tiempo. El entrenamiento del personal que va a intervenir en un programa es fundamental para la aplicación de esta técnica. Esta técnica junto a otras de la terapia de la conducta, necesitan de una mínima infraestructura económica.