999 resultados para Ordenadores, Redes de -- TFG
Resumo:
El objetivo de investigación es cómo los usuarios de Facebook y Tuenti de la ciudad de Málaga utilizan los deícticos espaciales aquí, ahí y allí en dichas redes sociales en línea. En el centro de atención no está cómo o qué es el espacio sino cómo los hablantes interpretan el espacio mediante la lengua, en otras palabras, es la percepción del espacio lo que nos interesa. La Computer-mediated Communication (CMC) ‘comunicación mediada por ordenadores’ es un campo relativamente nuevo. Uno de los fenómenos más interesantes dentro de la comunicación mediada por ordenadores son las redes sociales en línea, que en pocos años se han convertido en un medio de comunicación muy difundido y en expansión continua. No sorprende por eso que la lengua y la comunicación misma se vean afectadas. La condición virtual es importante para comprender los nuevos medios electrónicos de comunicación. Se considera el espacio virtual como una realidad virtual, llena de imágenes, algunas de las cuales no existen sino en un formato electrónico, y otras son representaciones simbólicas del mundo físico, es decir, es un universo paralelo creado y sostenido por las líneas de comunicación y redes de ordenadores que se enlazan por medio de la infraestructura que da Internet. El espacio virtual es básicamente un espacio-sistema relacional. Su realidad se construye a través de la interacción y del intercambio de información; es espacio y es medio. Este carácter emergente del espacio virtual hace esencial vincularlo con aquello que determina su surgimiento: con la comunicación. El espacio virtual surge en y por la comunicación, de ahí su doble naturaleza de espacio y medio. Teniendo en cuenta lo anteriormente dicho, lo que nos interesa analizar es cómo funcionan los deícticos espaciales, en tanto rasgos orientativos de la lengua relativos al lugar del acto de habla. El estudio que presentamos se basa en un corpus elaborado a partir de enunciados de informantes en Facebook y Tuenti. Se ha efectuado un análisis cuantitativo mediante la herramienta AntConc y también un análisis cualitativo. A partir del corpus y su análisis se muestra que los deícticos pueden hacer referencia tanto al espacio real como al virtual, es decir, operan en varios niveles. Su percepción y la interrelación del espacio virtual y real son elementos esenciales que condicionan la orientación espacial en Facebook y Tuenti.
Resumo:
La condición virtual es importante para comprender los nuevos medios electrónicos de comunicación. Se considera el espacio virtual como una realidad virtual, es decir, es un universo paralelo creado y sostenido por las líneas de comunicación y redes de ordenadores que se enlazan por medio de la infraestructura que da Internet. El objetivo de investigación es cómo los usuarios de Facebook y Tuenti utilizan los deícticos espaciales aquí, ahí, allí, acá, allá en dichas redes sociales en línea. En el centro de atención no está cómo o qué es el espacio sino cómo los hablantes interpretan el espacio mediante la lengua. Se ha efectuado un análisis cuantitativo y cualitativo que muestra que los deícticos pueden hacer referencia tanto al espacio real como al virtual, o sea, operan en varios niveles. Su percepción y la interrelación del espacio virtual y real son elementos esenciales que condicionan la orientación espacial en Facebook y Tuenti.
Resumo:
En las últimas décadas se han producido importantes avances tecnológicos, lo que ha producido un crecimiento importante de las Redes Inalámbricas de Sensores (RIS), conocidas en inglés como Wireless Sensor Networks (WSN). Estas redes están formadas por un conjunto de pequeños nodos o también, conocidos como motas, compuestos por diversos tipos de sensores. Las Redes Inalámbricas de Sensores pueden resultar muy útiles en entornos donde el despliegue de redes cableadas, formadas por ordenadores, encaminadores u otros dispositivos de red no sea posible. Sin embargo, este tipo de redes presentan una serie de carencias o problemas que dificultan, en ocasiones, su implementación y despliegue. Este Proyecto Fin de Carrera tiene como principales objetivos: diseñar e implementar un agente que haga uso de la tecnología Bluetooth para que se pueda comunicar tanto con la arquitectura orientada a servicios, vía radio, como con el módulo Bioharness para obtener parámetros fisiológicos; ofrecer una serie de servicios simples a la Red Inalámbrica de Sensores; diseñar un algoritmo para un sistema de alarmas; realizar e implementar una pasarela entre protocolos que usen el estándar IEEE802.15.4 (ZigBee) y el estándar IEEE802.15.1 de la Tecnología Bluetooth. Por último, implementar una aplicación Android para el reloj WiMM y que este pueda recibir alarmas en tiempo real a través del la Interfaz Bluetooth. Para lograr estos objetivos, en primer lugar realizaremos un estudio del Estado del Arte de las Redes Inalámbricas de Sensores, con el fin de estudiar su arquitectura, el estándar Bluetooth y los dispositivos Bluetooth que se han utilizado en este Proyecto. Seguidamente, describiremos detalladamente el firmware iWRAP versión 4, centrándonos en sus modos de operación, comandos AT y posibles errores que puedan ocurrir. A continuación, se describirá la arquitectura y la especificación nSOM, para adentrarnos en la arquitectura orientada a servicios. Por último, ejecutaremos la fase de validación del sistema y se analizarán los resultados obtenidos durante la fase de pruebas. ABSTRACT In last decades there have been significant advances in technology, which has resulted in important growth of Wireless Sensor Networks (WSN). These networks consist of a small set of nodes, also known as spots; equipped with various types of sensors. Wireless Sensor Networks can be very useful in environments where deployment of wired networks, formed by computers, routers or other network devices is not possible. However, these networks have a number of shortcomings or challenges to, sometimes, their implementation and deployment. The main objectives of this Final Project are to design and implement an agent that makes use of Bluetooth technology so you can communicate with both the service-oriented architecture, via radio, as with Bioharness module for physiological parameters; offer simple services to Wireless Sensor Network, designing an algorithm for an alarm system, make and implement a gateway between protocols using the standard IEEE802.15.4 (ZigBee) and IEEE802.15.1 standard Bluetooth Technology. Finally, implement an Android application for WiMM watch that can receive real-time alerts through the Bluetooth interface. In order to achieve these objectives, firstly we are going to carry out a study of the State of the Art in Wireless Sensor Network, where we study the architecture, the Bluetooth standard and Bluetooth devices that have been used in this project. Then, we will describe in detail the iWRAP firmware version 4, focusing on their operation modes, AT commands and errors that may occur. Therefore, we will describe the architecture and specification nSOM, to enter into the service-oriented architecture. Finally, we will execute the phase of validation of the system in a real application scenario, analyzing the results obtained during the testing phase.
Resumo:
Motivación Internet es sin duda sinónimo de telecomunicaciones en este momento, es la tecnología no de futuro, sino de presente llamada a cambiar la sociedad hasta puntos insospechables, sin opción de retorno. Hoy en día ha cambiado la forma en la que nos relacionamos, la forma en la que trabajamos y la manera en que tomamos decisiones se ve fuertemente apoyada en esta herramienta. Por supuesto el devenir de la Red está por ver, los gobiernos y las grandes compañías quieren "meter mano" en el control de los contenidos, sin embargo parece que la Red sabe autogestionarse y es capaz de funcionar dentro de un modelo semi-anárquico. Objetivos El objetivo del presente proyecto es dar a conocer los orígenes de la red de redes, desarrollando un entorno social, político, económico y tecnológico para una mejor comprensión. El lector no obtendrá un extenso conocimiento técnico sobre redes y ordenadores, sin embargo será capaz de entender los verdaderos motivos que llevaron a una comunidad científica a crear la mayor herramienta para el desarrollo del ser humano. También es mi intención hacer que el lector reflexione sobre cómo influyen diferentes factores en el devenir de los hechos, momentos de grandes cambios sociales o políticos, o cómo la ciencia resuelve problemas mediante la observación o el análisis, buscando siempre la mejor opción, sin conformarse con soluciones a medias. Estructura El proyecto está estructurado en 3 grandes bloques. El primer bloque corresponde a los tres primeros capítulos que nos adentran en el tema vía una introducción a modo de punto de partida u origen del concepto, un marco histórico del período de formación de la Red y un pequeño análisis del estado del arte de los ordenadores desde sus orígenes como tal, prácticamente coetáneos con el origen de Internet. El segundo bloque narra cómo comienza el desarrollo de la Red, los pasos que se van dando y las soluciones adoptadas hasta llegar a lo que conocemos hoy día como la red de redes: Internet. Por último se detallan las conclusiones obtenidas tras la escritura de este documento, realizando una serie de reflexiones globales que me surgen tras conocer la historia de la Red. ABSTRACT. Motivation Nowadays Internet without any doubt means telecommunications. It is not the future technology but the present one and it is supposed to change the society to an unexpected point, without possibility of return. It has already changed the way we communicate each other, the way we work and also the way we take decisions are strongly hold by this tool. Meanwhile we will see the becoming of the Network, the governments and the big companies want to have the control over the contents, however it seems that the Network has the ability to self-manage and it is also capable to keep working in a semi-anarchic model. Objectives The main aim of the present project is to show what is the real origin of the network of networks, developing a social, politic, economic and technologic context of it to ensure a better comprehension. The reader won´t get an extended knowledge about computing or networking, however he or she will be able to understand the truly motivation that lead a scientific community to create the most important tool for the human development. It is also my intention to make the reader think about how different facts, depending on the moment they take place like social or political changes, can transform the way everything happens and how science solves problems by the observation and the analysis, searching always the best option, without comply with half solutions. Structure This project is divided into three sections. The first part which includes the three first chapters place us in the topic by an introduction of the concept origin, an historic context of the period of Network development and a small analysis of the state of the art in computing since its origins, which appear at the same time as the Internet. The second block explains how the development of the Net starts, the steps followed and the solutions taken until the arrival of the network of networks we all know: the Internet. Finally, we can find the conclusions, which are exposed in a reflection way, with some considerations that came to me after writing this document about the history of the Internet.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
El envejecimiento de la poblaci on, el sobrepeso, y el aumento de enfermedades cr onicas, tales como: afecciones cardiacas, diabetes e hipertensi on, plantean nuevos retos al sistema de salud p ublica. En este contexto, las redes de sensores inal ambricas corporales (Wireless Body Area Networks (WBAN)/Wireless Body Sensor Networks (WBSN)) tienen gran potencial para revolucionar el sistema de salud ya que facilitan el seguimiento, la monitorizaci on y el diagn ostico de pacientes en casa, mejorando as su calidad de vida y reduciendo los costes asociados la asistencia sanitaria. Las redes WBAN/WBSN est an constituidas por nodos sensores que miden diferentes variables siol ogicas y cin eticas y disponen de interfaces inal ambricas de bajo coste para transmitir en tiempo real la informaci on a dispositivos en otros niveles de la red. En este tipo de redes, la transmisi on inal ambrica de datos es probablemente la tarea que presenta mayor consumo de energ a, por lo que dicho consumo debe ser reducido para maximizar su vida util. Adicionalmente, en escenarios WBAN/WBSN, el cuerpo humano juega un papel muy importante en la calidad de la comunicaci on. El cuerpo act ua como un canal de comunicaci on para la propagaci on de ondas electromagn eticas, por lo que el comportamiento de este tipo de canal representa un conjunto unico de desaf os para la transferencia able de datos...
Resumo:
El anonimato es una dimensi on de la privacidad en la que una persona se reserva su identidad en las relaciones sociales que mantiene. Desde el punto de vista del area de las comunicaciones electr onicas, el anonimato posibilita mantener oculta la informaci on que pueda conducir a la identi caci on de las partes involucradas en una transacci on. Actualmente, conservar el anonimato en las transacciones de informaci on en red representa uno de los aspectos m as importantes. Con este n se han desarrollado diversas tecnolog as, com unmente denominadas tecnolog as para la mejora de la privacidad. Una de las formas m as populares y sencillas de proteger el anonimato en las comunicaciones entre usuarios son los sistemas de comunicaci on an onima de baja latencia basados en redes de mezcladores. Estos sistemas est an expuestos a una serie de ataques basados en an alisis de tr a co que comprometen la privacidad de las relaciones entre los usuarios participantes en la comunicaci on, esto es, que determinan, en mayor o menor medida, las identidades de emisores y receptores. Entre los diferentes tipos de ataques destacan los basados en la inundaci on de la red con informaci on falsa para obtener patrones en la red de mezcladores, los basados en el control del tiempo, los basados en el contenido de los mensajes, y los conocidos como ataques de intersecci on, que pretenden inferir, a trav es de razonamientos probabil sticos o de optimizaci on, patrones de relaciones entre usuarios a partir de la informaci on recabada en lotes o durante un per odo de tiempo por parte del atacante. Este ultimo tipo de ataque es el objeto de la presente tesis...
Resumo:
Este estudio está basado en nuestras percepciones sobre el uso del ordenador e internet que los alumnos de Estudios Ingleses realizan en el aula durante las clases. Aunque hoy en día resulta extraño entrar en un aula sin ordenadores personales e incluso los alumnos muestran gran desconcierto cuando se les prohíbe su uso, no todo son ventajas a la hora de introducir las TICs en el aula, pues, como señalan Fried (2008) y Sana y otros (2012), con frecuencia los docentes nos enfrentamos a problemas de atención de los discentes en determinados momentos del proceso de enseñanza-aprendizaje. En general, parece que el alumnado está más motivado al realizar tareas prácticas con el ordenador; sin embargo, en la clase magistral interactiva los discentes tienden a realizar multitareas que incluyen uso de internet con fines no académicos (véase Wood y otros, 2011), lo cual repercute muy negativamente en su aprendizaje. Sugerimos aquí, por tanto, restringir el uso de ordenadores e internet a determinados momentos del proceso de enseñanza aprendizaje, es decir, a aquellos en los que el uso de las nuevas tecnologías favorece la motivación y el aprendizaje.
Resumo:
Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.
Resumo:
Durante el desarrollo del proyecto he aprendido sobre Big Data, Android y MongoDB mientras que ayudaba a desarrollar un sistema para la predicción de las crisis del trastorno bipolar mediante el análisis masivo de información de diversas fuentes. En concreto hice una parte teórica sobre bases de datos NoSQL, Streaming Spark y Redes Neuronales y después diseñé y configuré una base de datos MongoDB para el proyecto del trastorno bipolar. También aprendí sobre Android y diseñé y desarrollé una aplicación de móvil en Android para recoger datos para usarlos como entrada en el sistema de predicción de crisis. Una vez terminado el desarrollo de la aplicación también llevé a cabo una evaluación con usuarios.
Resumo:
Este Trabajo Fin de Grado, describe la implantación de un sistema de monitorización de redes informáticas. Se definirán los principales conceptos de monitorización, y se argumentará la elección de la herramienta finalmente seleccionada para llevarlo a cabo. Detallaremos el proceso de instalación, configuración y puesta en producción. Por último, se mostrará cómo funciona el sistema ya instalado sobre la red informática de la Empresa Pública de Turismo Andaluz, S.A., cubriendo las necesidades de control de sistemas desde su sede principal, sita en Málaga, al resto de provincias andaluzas, donde posee diversas sedes secundarias.
Resumo:
Este Trabajo de Fin de Grado (TFG) se engloba en la línea general Social CRM. Concretamente, está vinculado a un trabajo de investigación llamado “Knowledge discovery in social networks by using a logic-based treatment of implications” desarrollado por P. Cordero, M. Enciso, A. Mora, M. Ojeda-Aciego y C. Rossi en la Universidad de Málaga, en el cual se ofrecen nuevas soluciones para la identificación de influencias de los usuarios en las redes sociales mediante herramientas como el Analisis de Conceptos Formales (FCA). El TFG tiene como objetivo el desarrollo de una aplicación que permita al usuario crear una configuración minimal de usuarios en Twitter a los que seguir para conocer información sobre un número determinado de temas. Para ello, obtendremos información sobre dichos temas mediante la API REST pública que proporciona Twitter y procesaremos los datos mediante algoritmos basados en el Análisis de Conceptos Formales (FCA). Posteriormente, la interpretación de los resultados de dicho análisis nos proporcionará información útil sobre lo expuesto al principio. Así, el trabajo se ha dividido en tres partes fundamentales: 1. Obtención de información (fuentes) 2. Procesamiento de los datos 3. Análisis de resultados El sistema se ha implementado como una aplicación web Java EE 7, utilizando JSF para las interfaces. Para el desarrollo web se han utilizado tecnologías y frameworks como Javascript, JQuery, CSS3, Bootstrap, Twitter4J, etc. Además, se ha seguido una metodología incremental para el desarrollo del proyecto y se ha usado UML como herramienta de modelado. Este proyecto se presenta como un trabajo inicial en el que se expondrán, además del sistema implementado, diversos problemas reales y ejemplos que prueben su funcionamiento y muestren la utilidad práctica del mismo
Resumo:
El siguiente TFG es un análisis del uso de las redes sociales en la estrategia de comunicación de las empresas. El interés surge en la medida en que las redes sociales constituyen en la actualidad un instrumento de conexión con los diferentes públicos que está creciendo de manera significativa. Las empresas tienen a su alcance, por tanto, una vía excelente para desarrollar marcas, interacciones y conversación, pero es necesario entender las reglas del juego de este nuevo contexto. Por ello, primero hemos estudiado cómo ha evolucionado el marketing en los entornos digitalizados, desde el marketing 1.0 hasta el marketing 3.0, así como las herramientas que utilizamos y cómo se mide y se posiciona en el marketing digital. En este contexto, nos hemos centrado en las redes sociales, analizando su historia, cómo han evolucionado a lo largo de los años, qué tipos de redes sociales hay, cuáles son las más utilizadas, los nuevos perfiles profesionales que han surgido a través de las redes sociales, y qué riesgos implican las redes sociales en la gestión empresarial. Finalmente, y con el fin de valorar en un caso práctico real lo estudiado desde la perspectiva teórica, hemos realizado un análisis comparado del uso de redes sociales en la empresa en la que he estado realizando prácticas los pasados cinco meses en relación con su competencia, esto es, empresas del sector de la impresión digital textil por sublimación.
Resumo:
Animal welfare has been an important research topic in animal production mainly in its ways of assessment. Vocalization is found to be an interesting tool for evaluating welfare as it provides data in a non-invasive way as well as it allows easy automation of process. The present research had as objective the implementation of an algorithm based on artificial neural network that had the potential of identifying vocalization related to welfare pattern indicatives. The research was done in two parts, the first was the development of the algorithm, and the second its validation with data from the field. Previous records allowed the development of the algorithm from behaviors observed in sows housed in farrowing cages. Matlab® software was used for implementing the network. It was selected a retropropagation gradient algorithm for training the network with the following stop criteria: maximum of 5,000 interactions or error quadratic addition smaller than 0.1. Validation was done with sows and piglets housed in commercial farm. Among the usual behaviors the ones that deserved enhancement were: the feed dispute at farrowing and the eventual risk of involuntary aggression between the piglets or between those and the sow. The algorithm was able to identify through the noise intensity the inherent risk situation of piglets welfare reduction.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física