40 resultados para Lemas de Sperner
Resumo:
Presentación de la metodología empleada en el montaje del glosario electrónico de los verbos griegos medios presentes en la obra Biblioteca de Apolodoro. Después de algunas reflexiones sobre el concepto de la voz media en griego y el reconocimiento de las apariciones en el corpus mencionado, presentamos una pequeña lista de palabras, con algunos lemas previamente seleccionados, con la clasificación de los verbos medios según la función semántica señalada por el sujeto oracional
Resumo:
Esta tesis presenta un modelo, una metodología, una arquitectura, varios algoritmos y programas para crear un lexicón de sentimientos unificado (LSU) que cubre cuatro lenguas: inglés, español, portugués y chino. El objetivo principal es alinear, unificar, y expandir el conjunto de lexicones de sentimientos disponibles en Internet y los desarrollados a lo largo de esta investigación. Así, el principal problema a resolver es la tarea de unificar de forma automatizada los diferentes lexicones de sentimientos obtenidos por el crawler CSR, porque la unidad de medida para asignar la intensidad de los valores de la polaridad (de forma manual, semiautomática y automática) varía de acuerdo con las diferentes metodologías utilizadas para la construcción de cada lexicón. La representación codificada de la estructura de datos de los términos presenta también una variación en la estructura de lexicón a lexicón. Por lo que al unificar en un lexicón de sentimientos se hace posible la reutilización del conocimiento recopilado por los diferentes grupos de investigación y se incrementa, a la vez, el alcance, la calidad y la robustez de los lexicones. Nuestra metodología LSU calcula un valor unificado de la intensidad de la polaridad para cada entrada léxica que está presente en al menos dos de los lexicones de sentimientos que forman parte de este estudio. En contraste, las entradas léxicas que no son comunes en al menos dos de los lexicones conservan su valor original. El coeficiente de Pearson resultante permite medir la correlación existente entre las entradas léxicas asignándoles un rango de valores de uno a menos uno, donde uno indica que los valores de los términos están perfectamente correlacionados, cero indica que no existe correlación y menos uno significa que están inversamente correlacionados. Este procedimiento se lleva acabo con la función de MetricasUnificadas tanto en la CPU como en la GPU. Otro problema a resolver es el tiempo de procesamiento que se requiere para realizar la tarea de unificación de la intensidad de la polaridad y con ello alcanzar una cobertura mayor de lemas en los lexicones de sentimientos existentes. Asimismo, la metodología LSU utiliza el procesamiento paralelo para unificar los 155 802 términos. El algoritmo LSU procesa mediante cargas iguales el subconjunto de entradas léxicas en cada uno de los 1344 núcleos en la GPU. Los resultados de nuestro análisis arrojaron un total de 95 430 entradas léxicas donde 35 201 obtuvieron valores positivos, 22 029 negativos y 38 200 neutrales. Finalmente, el tiempo de ejecución fue de 2,506 segundos para el total de las entradas léxicas, lo que permitió reducir el procesamiento de cómputo hasta en una tercera parte con respecto al algoritmo secuencial. De estos resultados se concluye que al lograr un lexicón de sentimientos unificado que permite homogeneizar la intensidad de la polaridad de las unidades léxicas (con valores positivos, negativos y neutrales) deriva no sólo en el análisis semántico del corpus basado en los términos con una mayor carga de polaridad, o del resumen de las valoraciones o las tendencias de neuromarketing, sino también en aplicaciones como el etiquetado subjetivo de sitios web o de portales sintácticos y semánticos, por mencionar algunas. ABSTRACT This thesis presents an approach to create what we have called a Unified Sentiment Lexicon (USL). This approach aims at aligning, unifying, and expanding the set of sentiment lexicons which are available on the web in order to increase their robustness of coverage. One problem related to the task of the automatic unification of different scores of sentiment lexicons is that there are multiple lexical entries for which the classification of positive, negative, or neutral P, N, Z depends on the unit of measurement used in the annotation methodology of the source sentiment lexicon. Our USL approach computes the unified strength of polarity of each lexical entry based on the Pearson correlation coefficient which measures how correlated lexical entries are with a value between 1 and - 1 , where 1 indicates that the lexical entries are perfectly correlated, 0 indicates no correlation, and -1 means they are perfectly inversely correlated and so is the UnifiedMetrics procedure for CPU and GPU, respectively. Another problem is the high processing time required for computing all the lexical entries in the unification task. Thus, the USL approach computes a subset of lexical entries in each of the 1344 GPU cores and uses parallel processing in order to unify 155,802 lexical entries. The results of the analysis conducted using the USL approach show that the USL has 95,430 lexical entries, out of which there are 35,201 considered to be positive, 22,029 negative, and 38,200 neutral. Finally, the runtime was 2.505 seconds for 95,430 lexical entries; this allows a reduction of the time computing for the UnifiedMetrics by 3 times with respect to the sequential implementation. A key contribution of this work is that we preserve the use of a unified sentiment lexicon for all tasks. Such lexicon is used to define resources and resource-related properties that can be verified based on the results of the analysis and is powerful, general and extensible enough to express a large class of interesting properties. Some applications of this work include merging, aligning, pruning and extending the current sentiment lexicons.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
Imprint varies.
Resumo:
Thesis (Master's)--University of Washington, 2016-08
Resumo:
[es] El objetivo de nuestro artículo es presentar y discutir la explicación que sobre la apócope, tanto normal como extrema, ofrece el romanista mexicano Lema (1997). Lema asume como punto de partida de su hipótesis la ruina del sistema declinativo del latín clásico y la consolidación románica de la íntima asociación entre la vocal final y el género gramatical (/–a/ = femenino, /–o/ = masculino). Él opina que la ausencia de valor morfemático, en lo que respecta a la categoría de género gramatical, de la /–e/ provocó necesariamente su pérdida en posición final absoluta de palabra. Intentaremos mostrar que el razonamiento de Lema no es aceptable por varias razones. Nuestra idea sigue siendo que la correcta explicación de la apócope medieval ha de partir de parámetros fonéticos, en la línea expositiva desarrollada por Lapesa, no morfológicos. [en] The aim of our article is to expose and discuss the explanation offered by Lema (1997) for vocalic apocope in Medieval Spanish. Lema assumes that the starting point is the loss of Classical Latin declension system, which gives rise to the strong Romance association between final vowel and grammatical gender (/-a/ = feminine, /-o/ = masculine). He thinks that /-e/, because of its lack of morphological function as regards to grammatical gender, dropped, in word final position, in all instances, with no exception. We’ll try to show that Lema’s theory is unacceptable for several reasons. On the contrary, we consider that the adequate understanding of Old Spanish apocope depends on phonetic -not morphological- criteria, according to Lapesa’s hypotheses.
Resumo:
LA PREPOSICIÓN διά EN EL GRIEGO DEL NUEVO TESTAMENTO. ENSAYO DE ANÁLISIS SEMÁNTICO Marta Merino Hernández Universidad de Córdoba La presente comunicación se centra en el análisis semántico de la preposición διά en el griego del NT, siguiendo la metodología usada para la confección del Diccionario Griego-Español del Nuevo Testamento (DGENT). Por tanto, se trata de un intento de arrojar luz sobre los significados de esta preposición en el NT desde un enfoque semántico-estructural. Nuestra intervención intenta paliar la escasa atención prestada al griego de la koiné y, en concreto, al utilizado para la composición del NT. Los más recientes estudios de sintaxis preposicional griega se han centrado principalmente en el griego clásico, a pesar de que fue en época helenística cuando se produjeron algunos de los cambios que más han modificado el sistema preposicional, debido al aumento considerable del número de locuciones prepositivas en lugar del uso simple de los casos. El trabajo parte, asimismo, del hecho de que la preposición es, tal vez, la más ambigua, compleja y polisémica categoría gramatical, encontrándose expuesta, a menudo, a sutiles gradaciones de significado, por lo que para abordar su análisis es necesario partir de un enfoque eminentemente semántico, además de estructural. Las dificultades a las que se enfrenta el estudioso de este campo de la sintaxis son debidas, por una parte, a que el de la preposición griega constituye un sistema de gran complejidad, complementario del de los casos, ya que los sintagmas preposicionales componen un significado que no es otra cosa sino el resultado de la combinación del sentido de la preposición y de la noción relacional que expresa el caso. Así, se trata de un sistema que se encuentra a medio camino entre lo gramatical y lo lexical. Por otra, a que también influyen en el significado de una preposición otros elementos oracionales como el contenido léxico del núcleo del sintagma, el del predicado y otros factores contextuales. Sin embargo, del examen de los diversos lemas propuestos para la preposición διά por los principales diccionarios dedicados al griego clásico y neotestamentario, es decir, los léxicos de Liddell-Scott & al. , F. Rodríguez Adrados & al., (DGE) , F. Zorell , J.H. Thayer & al. y W. Bauer – F.W. Danker & al. (BDAG) y Louw & Nida , se deduce que su estudio resulta insuficiente desde el punto de vista semántico, ya que en su mayoría constituyen léxicos bilingües tradicionales que siguen un criterio morfo-sintáctico y de uso, centrados, en definitiva, más en la sintaxis que en la semántica, y/o destinados a ofrecer equivalentes de traducción del griego a la lengua de destino, acompañados de información gramatical. Como consecuencia, demuestran en mayor o menor medida, falta de precisión en el análisis de un lexema dado en los diferentes contextos en que aparece. Es reseñable, en este sentido, que los diccionarios citados parecen carecer de un método de análisis semántico llevado hasta sus última consecuencias que permita fijar claramente la distinción entre significado lexical y contextual, así como describir el significado de cada lexema, lo que les hace caer en incoherencias y contradicciones, de modo que no siempre cada apartado corresponde a una acepción distinta. En cambio, el DGENT presenta una nueva forma de tratar los lexemas gracias, principalmente, a la aplicación sistemática de una rigurosa metodología de análisis semántico para la redacción de los lemas, desarrollada en las siguientes obras: Método de análisis semántico aplicado al griego del Nuevo Testamento de Juan Mateos y Metodología del Diccionario Griego-Español del Nuevo Testamento de Jesús Peláez . Esto hace posible el principal avance de este léxico, que lo diferencia del resto de diccionarios bilingües, es decir, la inclusión de una definición y su correspondiente traducción al castellano en la entrada de cada palabra analizada, así como la distinción sistemática entre ambas, tanto para el significado lexical como para sus diferentes acepciones, las cuales surgen por influjo contextual. En efecto, otra importante novedad lexicográfica de este diccionario es que explicita los factores contextuales que inciden en el cambio semántico de manera individualizada, partiendo del significado lexical o básico. Así, en el análisis y redacción del lema de διὰ que se llevará a cabo, se seguirán las siguientes fases: 1) Confrontación de todos los pasajes (667) del corpus neotestamentario donde aparece la preposición, lo que permitirá determinar cuál es el significado lexical de διά, estableciendo su definición, es decir, una descripción de su significado lexical o básico. 2) Propuesta de traducción a lengua castellana de este primer significado. 3) A continuación, la metodología seguida hará posible incluso deducir las causas o factores contextuales (morfológicos, sintácticos o extra-lingüísticos) que suscitan el cambio de significado lexical y, por consiguiente, de traducción, cuando διὰ aparece en uno u otro contexto. 4) Finalmente, siguiendo los mismos pasos anteriores, se propondrá una definición y traducción de cada una de estas acepciones o significados contextuales. En definitiva, en nuestra opinión, la aplicación del método de análisis semántico del DGENT permitirá no solo deducir de forma clara los diferentes significados, sino que revelará la existencia de acepciones de esta preposición que otros diccionarios consideran únicamente de forma sesgada o equivocada, por lo que los resultados de esta comunicación supondrán un avance en el estudio y la sistematización de las funciones semánticas de las preposiciones en el griego del corpus neotestamentario.
Resumo:
Los Grupos Libres son una área de la Teoría de Grupos, que no es profundizada en la Licenciatura en Matemática, esto, debido al bajo contenido en algebra que posee el pensum, razón por la cual, el propósito del trabajo es mostrarse como una opción para una materia electiva. Con toda la investigación y desarrollo realizado, se ha creado un trabajo apto para que un estudiante pueda leerlo y comprenderlo por sí solo, ya que posee todas las herramientas básicas para su completo entendimiento. Se ha descrito paso a paso, el proceso realizado para la demostración de los teoremas, lemas, proposiciones y corolarios, al igual que los ejercicios, que ayudan a la comprensión de los capítulos. Algunos de los ejemplos presentados son de utilidad para la demostración de los teoremas más importantes. Estos resultados relevantes fueron los objetivos trazados al inicio de la investigación. Dentro del proceso realizado durante el desarrollo del tema está, la intensa búsqueda bibliográfica en libros, revistas y artículos en internet, del cual se escogió lo más importante que permitió obtener como resultado los capítulos con la información principal, en la que se fueron desarrollando los teoremas, corolarios, lemas y proposiciones, a esto se le agregaron los diferentes tipos de ejercicios resueltos. Finalizando con la presentación de los resultados.
Resumo:
INTRODUCCIÓN En los últimos tiempos, se percibe en la sociedad una preocupación hacia lo diferente que se manifiesta en procesos discriminatorios y de exclusión. La población y las instituciones manifiestan rechazo al otro-inmigrante con una legislación limitadora de derechos, unos medios de comunicación que alimentan una dinámica discriminadora y excluyente muy peligrosa y, un discurso de la clase política muy negativo para con los inmigrantes. El uso de frases y lemas que generalizan aspectos negativos y conectan la inmigración con el delito, con la amenaza al estado del bienestar y con el desempleo ha de calificarse como peligroso. El primer objetivo de este trabajo es entender a la persona en su paradoja. La paradoja de que somos seres sociales y rechazamos al otro. El segundo objetivo es por un lado, analizar la falsedad de afirmaciones como que “los inmigrantes cometen más delitos que los nacionales o que son más propensos al delito que los nacionales” y, por otro, comprobar que dichas afirmaciones son inevitables. DESARROLLO TEÓRICO En cuanto a la paradoja de que somos seres sociales y rechazamos al otro, se analiza el origen del rechazo al inmigrante desde la naturaleza y la condición humanas, lo que nos lleva a concluir que la percepción de una persona en sociedad se desarrolla en un proceso interrelacional e intersubjetivo que es eminentemente paradójico. La formación de la persona se desarrolla sobre la base del proceso de imitación, la identificación y reidentificación de la persona se exponen en teorías diversas, la teoría de la identidad de la comunidad cuyo máximo representante es Tajfel (1969), la teoría de las creencias de grupo de Bar-Tal (1990), la teoría de la amenaza comprehensiva de Stephan et al. (2005) y la teoría de los valores centrales de Bauman (2001). El segundo objetivo de esta tesis es por un lado, analizar la falsedad de afirmaciones como que “los inmigrantes cometen más delitos que los nacionales o que son más propensos al delito que los nacionales” para lo que se ha realizado una revisión bibliográfica que concluye que los inmigrantes no cometen más delitos que los nacionales y que no son más propensos al delito que los nacionales; y, por otro, comprobar que dichas afirmaciones son inevitables, para lo que se ha aplicado el método estadístico cualitativo teniendo como base la pregunta 18 de la Encuesta del CIS número 2967 del año 2012 relativa a la percepción de la inmigración. Para la comprobación de que dichas afirmaciones son inevitables, se ha aplicado la metodología estadística cualitativa a la pregunta 18 de la Encuesta número 2967 del CIS del año 2012 cuya redacción es la siguiente “La inmigración, como todo, tiene aspectos positivos y negativos. ¿Y qué aspecto negativo destacaría más?” Con la aplicación del método Kendall-Stoyanov se obtuvieron coeficientes de concordancia en el orden de importancia de los items y coeficientes de ponderación que dan mejor información sobre cuán importante es un determinado aspecto negativo sobre los demás. La metodología expuesta se aplicó en dos Análisis fundamentales: un análisis descriptivo y un análisis multivariable. Con el análisis descriptivo se comparan las opiniones de las categorías sociodemográficas propuestas por el CIS. Dado que el análisis descriptivo puede considerarse excesivamente homogéneo y limitado, por cuanto se comparan categorías socio-demográficas que son univariable, se ha procedido a realizar un análisis multivariable comparando dos perfiles. El perfil del cosmopolita responde a las siguientes variables, Hombre o mujer, de 18-40 años, con estudios universitarios e ideología de izquierdas. El perfil provinciano o local responde a estas otras variables, Hombre o mujer, de más de 65 años, con educación básica o secundaria e ideología de derechas. Para numerosos autores (Diez Nicolás, 1999, Cea D´Ancona, 2004, Haubert y Fussel, 2006 y Ford, 2012), los perfiles sociodemográficos muestran que las personas de más de 65 años, de derechas, bajo estatus socioeconómico y baja educación son xenófobos. Por el contrario, la gente joven con alta educación, status socioeconómico alto, de izquierdas y los que han viajado al extranjero muestran menor grado de xenofobia. Sin embargo, tras la aplicación del método Kendall-Stoyanov a la pregunta 18 del CIS, ambos perfiles muestran una absoluta concordancia en cuanto al orden de los aspectos negativos y en cuanto a la importancia atribuida a dichos aspectos. CONCLUSIONES Como primera conclusión, se ha podido constatar lo paradójico de la condición humana. La revisión bibliográfica especializada concluye que los inmigrantes no cometen más delitos que los nacionales y que no son más propensos al delito que los nacionales. Por su parte, con los análisis descriptivo y multivariable, se demuestra la inevitabilidad del rechazo sobre la base de una opinión concordante u homogénea en la sociedad española en el año 2012. Esta homogeneidad se debe, entre otros, al proceso de securitización producido en la sociedad española en 2012. BIBLIOGRAFÍA BAR-TAL, D. (1990). Group Belief: A conception for Analyzing Group Structure, Processes and Behaviour. Springer Science+Business Media. Nueva York. BAUMAN, Z, (2001). “Identity in a Globalizing World”. Social Anthropology, vol. 1, issue 2, pp. 121-129. CEA D ́ANCONA, M.A. (2004). La activación de la xenofobia en España. ¿Qué miden las encuestas? Centro de Investigaciones Sociológicas. Madrid. DÍEZ NICOLÁS, J. (1999). “Los Españoles y la Inmigración”. Ministerio de Trabajo y Asuntos Sociales, Secretaría General de Asuntos Sociales, Instituto de Migraciones y Servicios Sociales. Observatorio Permanente de la Inmigración. FORD, R. (2012). “Parochial and Cosmopolitan Britain. Examining the Social Divide in Reactions to Immigration”. Transatlantic Trends Immigration Focus Papers. HAUBERT, J. and FUSSELL, E. (2006). “Explaining pro-immigrant sentiment in the U.S.: Social class, cosmpolitism, and perceptions of immigrants.” International Migration Review, vol. 40, n. 3. The Center for Migration Studes of Nueva Yor, Inc. pp. 489-507. STEPHAN, W. G., RENFRO, C. L., ESSES, V. M, STEPHAN. C.W. and MATINE, T. (2005). “The effects of feeling threatened on attitudes toward immigrants”. International Journal of Intercultural Relations. Volume 29, Issue 1, Pages 1–19. BAR-TAL, D. TAJFEL, H. (1969). “Cognitive Aspects of Prejudice”, 25 J. SOC. ISSUES 79-97.
Resumo:
Dissertação de Mestrado, Ciências da Linguagem, Faculdade de Ciências Humanas e Sociais, Universidade do Algarve, 2014