891 resultados para Voice over Internet protocol
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
This paper explores the attempts to co-ordinate rural resistance and struggles in South Africa during apartheid through a case study of the Association for Rural Advancement (AFRA), a land NGO established in Natal in 1979. It was a small group but had a significant local and national impact. The paper addresses three key questions concerning the character and works of AFRA: (1) What was the character and strategy of AFRA in the politicised context of the late 1970s and 1980s? (2) Was there any historical continuity and discontinuity with early attempts by Natal liberals and African landowners to organise anti-removal campaigns in the 1950s? (3) How and to what extent could AFRA negotiate the increasing influence of the Inkatha and KwaZulu government over Natal rural communities? The paper aims to serve as a critical evaluation of AFRA's strategies and activities, and its relationship with rural communities up to 1990 when land movements became nationwide.
Resumo:
Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.
Resumo:
The future Internet is expected to be composed of a mesh of interoperable web services accessible from all over the web. This approach has not yet caught on since global user?service interaction is still an open issue. This paper states one vision with regard to next-generation front-end Web 2.0 technology that will enable integrated access to services, contents and things in the future Internet. In this paper, we illustrate how front-ends that wrap traditional services and resources can be tailored to the needs of end users, converting end users into prosumers (creators and consumers of service-based applications). To do this, we propose an architecture that end users without programming skills can use to create front-ends, consult catalogues of resources tailored to their needs, easily integrate and coordinate front-ends and create composite applications to orchestrate services in their back-end. The paper includes a case study illustrating that current user-centred web development tools are at a very early stage of evolution. We provide statistical data on how the proposed architecture improves these tools. This paper is based on research conducted by the Service Front End (SFE) Open Alliance initiative.
Resumo:
Motivación Internet es sin duda sinónimo de telecomunicaciones en este momento, es la tecnología no de futuro, sino de presente llamada a cambiar la sociedad hasta puntos insospechables, sin opción de retorno. Hoy en día ha cambiado la forma en la que nos relacionamos, la forma en la que trabajamos y la manera en que tomamos decisiones se ve fuertemente apoyada en esta herramienta. Por supuesto el devenir de la Red está por ver, los gobiernos y las grandes compañías quieren "meter mano" en el control de los contenidos, sin embargo parece que la Red sabe autogestionarse y es capaz de funcionar dentro de un modelo semi-anárquico. Objetivos El objetivo del presente proyecto es dar a conocer los orígenes de la red de redes, desarrollando un entorno social, político, económico y tecnológico para una mejor comprensión. El lector no obtendrá un extenso conocimiento técnico sobre redes y ordenadores, sin embargo será capaz de entender los verdaderos motivos que llevaron a una comunidad científica a crear la mayor herramienta para el desarrollo del ser humano. También es mi intención hacer que el lector reflexione sobre cómo influyen diferentes factores en el devenir de los hechos, momentos de grandes cambios sociales o políticos, o cómo la ciencia resuelve problemas mediante la observación o el análisis, buscando siempre la mejor opción, sin conformarse con soluciones a medias. Estructura El proyecto está estructurado en 3 grandes bloques. El primer bloque corresponde a los tres primeros capítulos que nos adentran en el tema vía una introducción a modo de punto de partida u origen del concepto, un marco histórico del período de formación de la Red y un pequeño análisis del estado del arte de los ordenadores desde sus orígenes como tal, prácticamente coetáneos con el origen de Internet. El segundo bloque narra cómo comienza el desarrollo de la Red, los pasos que se van dando y las soluciones adoptadas hasta llegar a lo que conocemos hoy día como la red de redes: Internet. Por último se detallan las conclusiones obtenidas tras la escritura de este documento, realizando una serie de reflexiones globales que me surgen tras conocer la historia de la Red. ABSTRACT. Motivation Nowadays Internet without any doubt means telecommunications. It is not the future technology but the present one and it is supposed to change the society to an unexpected point, without possibility of return. It has already changed the way we communicate each other, the way we work and also the way we take decisions are strongly hold by this tool. Meanwhile we will see the becoming of the Network, the governments and the big companies want to have the control over the contents, however it seems that the Network has the ability to self-manage and it is also capable to keep working in a semi-anarchic model. Objectives The main aim of the present project is to show what is the real origin of the network of networks, developing a social, politic, economic and technologic context of it to ensure a better comprehension. The reader won´t get an extended knowledge about computing or networking, however he or she will be able to understand the truly motivation that lead a scientific community to create the most important tool for the human development. It is also my intention to make the reader think about how different facts, depending on the moment they take place like social or political changes, can transform the way everything happens and how science solves problems by the observation and the analysis, searching always the best option, without comply with half solutions. Structure This project is divided into three sections. The first part which includes the three first chapters place us in the topic by an introduction of the concept origin, an historic context of the period of Network development and a small analysis of the state of the art in computing since its origins, which appear at the same time as the Internet. The second block explains how the development of the Net starts, the steps followed and the solutions taken until the arrival of the network of networks we all know: the Internet. Finally, we can find the conclusions, which are exposed in a reflection way, with some considerations that came to me after writing this document about the history of the Internet.
Resumo:
Aunque esta no es la primera vez que nuevas compañías y tecnologías revolucionan la forma de entender una industria determinada, los modelos over-the-top (OTT) han provocado una explosión en el consumo de contenidos a través de internet, una revolución en la forma tradicional de comunicarse, de disfrutar de nuevas posibilidades de ocio digital y, por tanto, una transformación a la hora de entender los modelos de monetización de las compañías, actualmente buscando su lugar en la nueva cadena de valor. Ya no cabe duda de que este tipo de servicios se han hecho un hueco en la rutina diaria de las personas pero, a pesar de su rápida adopción y alta tasa de penetración, todo parece indicar que es sólo el comienzo de una nueva era, donde estos nuevos modelos disruptivos, están todavía por definirse. Tras unos años de cambios en el sector de las comunicaciones y entretenimiento digital, es ahora el del consumo audiovisual de entretenimiento el que se está viviendo sus debates más intensos. Este trabajo, presentado como proyecto final dentro del Máster de Consultoría en Gestión de Empresas fruto de la colaboración entre la UPM y la AEC, analiza en profundidad los cambios que está generando la adopción de soluciones de vídeo-OTT en el mercado a todos los niveles: cambios en los patrones de comportamiento de las personas, impactos en los sectores tradicionales (y su traducción en términos económicos y legales), evolución de la tecnología, etc. Todos estos aspectos se visitan haciendo especial hincapié en la cadena de valor y los nuevos modelos de negocio derivados de estas nuevas soluciones permitiendo monetizar estos cambios en un mercado complejo. Como complemento, se presenta un análisis de una de las soluciones líderes en el mercado, NETFLIX. Profundizar en un modelo de negocio de una compañía como esta permite analizar las estrategias seguidas y resultados obtenidos en función de la caracterización del mercado existente en cada momento, tomando notas para tener en cuenta en el planteamiento de modelos de negocio similares. Adicionalmente, en el apartado de recomendaciones para la cadena de valor, se establecen una serie de modelos de negocio que permitan enfrentar la aparición y crecimiento de los servicios OTT desde dos puntos de vista: diferenciación y participación de los mismos. Las aportaciones de valor presentadas, prestan especial atención también sobre las operadoras de telecomunicaciones, uno de los sectores más castigados por la entrada en el mercado de las soluciones de vídeo-OTT, junto con la televisión de pago. Por último, se utilizan todas las conclusiones extraídas de los anteriores apartados (que sirven como caracterización de entorno) para establecer un plan de negocio definiendo una propuesta que podría ser interesante desarrollar en el mercado español, carente actualmente de una solución líder que destaque, como ocurre en otros países. En base a este trabajo, se puede concluir que este tipo de servicios de vídeo-OTT presentan un potencial todavía por desarrollar y que conviene incluir en las estrategias de los próximos años de las compañías del sector, si éstas no quieren perder cuota de un mercado que sin duda evolucionará y revolucionará el mundo de la televisión tal y como existe actualmente.
Resumo:
Nowadays, we can send audio on the Internet for multiples uses like telephony, broadcast audio or teleconferencing. The issue comes when you need to synchronize the sound from different sources because the network where we are going to work could lose packets and introduce delay in the delivery. This can also come because the sound cards could be work in different speeds. In this project, we will work with two computers emitting sound (one will simulate the left channel (mono) of a stereo signal, and the other the right channel) and connected with a third computer by a TCP network. The last computer must get the sound from both computers and reproduce it in a speaker properly (without delay). So, basically, the main goal of the project is to synchronize multi-track sound over a network. TCP networks introduce latency into data transfers. Streaming audio suffers from two problems: a delay and an offset between the channels. This project explores the causes of latency, investigates the affect of the inter-channel offset and proposes a solution to synchronize the received channels. In conclusion, a good synchronization of the sound is required in a time when several audio applications are being developed. When two devices are ready to send audio over a network, this multi-track sound will arrive at the third computer with an offset giving a negative effect to the listener. This project has dealt with this offset achieving a good synchronization of the multitrack sound getting a good effect on the listener. This was achieved thanks to the division of the project into several steps having constantly a good vision of the problem, a good scalability and having controlled the latency at all times. As we can see in the chapter 4 of the project, a lack of synchronization over c. 100μs is audible to the listener. RESUMEN. A día de hoy, podemos transmitir audio a través de Internet por varios motivos como pueden ser: una llamada telefónica, una emisión de audio o una teleconferencia. El problema viene cuando necesitas sincronizar ese sonido producido por los diferentes orígenes ya que la red a la que nos vamos a conectar puede perder los paquetes y/o introducir un retardo en las entregas de los mismos. Así mismo, estos retardos también pueden venir producidos por las diferentes velocidades a las que trabajan las tarjetas de sonido de cada dispositivo. En este proyecto, se ha trabajado con dos ordenadores emitiendo sonido de manera intermitente (uno se encargará de simular el canal izquierdo (mono) de la señal estéreo emitida, y el otro del canal derecho), estando conectados a través de una red TCP a un tercer ordenador, el cual debe recibir el sonido y reproducirlo en unos altavoces adecuadamente y sin retardo (deberá juntar los dos canales y reproducirlo como si de estéreo de tratara). Así, el objetivo principal de este proyecto es el de encontrar la manera de sincronizar el sonido producido por los dos ordenadores y escuchar el conjunto en unos altavoces finales. Las redes TCP introducen latencia en la transferencia de datos. El streaming de audio emitido a través de una red de este tipo puede sufrir dos grandes contratiempos: retardo y offset, los dos existentes en las comunicaciones entre ambos canales. Este proyecto se centra en las causas de ese retardo, investiga el efecto que provoca el offset entre ambos canales y propone una solución para sincronizar los canales en el dispositivo receptor. Para terminar, una buena sincronización del sonido es requerida en una época donde las aplicaciones de audio se están desarrollando continuamente. Cuando los dos dispositivos estén preparados para enviar audio a través de la red, la señal de sonido multi-canal llegará al tercer ordenador con un offset añadido, por lo que resultará en una mala experiencia en la escucha final. En este proyecto se ha tenido que lidiar con ese offset mencionado anteriormente y se ha conseguido una buena sincronización del sonido multi-canal obteniendo un buen efecto en la escucha final. Esto ha sido posible gracias a una división del proyecto en diversas etapas que proporcionaban la facilidad de poder solucionar los errores en cada paso dando una importante visión del problema y teniendo controlada la latencia en todo momento. Como se puede ver en el capítulo 4 del proyecto, la falta de sincronización sobre una diferencia de 100μs entre dos canales (offset) empieza a ser audible en la escucha final.
Resumo:
El uso universal de síntesis de voz en diferentes aplicaciones requeriría un desarrollo sencillo de las nuevas voces con poca intervención manual. Teniendo en cuenta la cantidad de datos multimedia disponibles en Internet y los medios de comunicación, un objetivo interesante es el desarrollo de herramientas y métodos para construir automáticamente las voces de estilo de varios de ellos. En un trabajo anterior se esbozó una metodología para la construcción de este tipo de herramientas, y se presentaron experimentos preliminares con una base de datos multiestilo. En este artículo investigamos más a fondo esta tarea y proponemos varias mejoras basadas en la selección del número apropiado de hablantes iniciales, el uso o no de filtros de reducción de ruido, el uso de la F0 y el uso de un algoritmo de detección de música. Hemos demostrado que el mejor sistema usando un algoritmo de detección de música disminuye el error de precisión 22,36% relativo para el conjunto de desarrollo y 39,64% relativo para el montaje de ensayo en comparación con el sistema base, sin degradar el factor de mérito. La precisión media para el conjunto de prueba es 90.62% desde 76.18% para los reportajes de 99,93% para los informes meteorológicos.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
El presente PFC tiene como objetivo el desarrollo de un gestor domótico basado en el dictado de voz de la red social WhatsApp. Dicho gestor no solo sustituirá el concepto dañino de que la integración de la domótica hoy en día es cara e inservible sino que acercará a aquellas personas con una discapacidad a tener una mejora en la calidad de vida. Estas personas, con un simple comando de voz a su aplicación WhatsApp de su terminal móvil, podrán activar o desactivar todos los elementos domóticos que su vivienda tenga instalados, “activar lámpara”, “encender Horno”, “abrir Puerta”… Todo a un muy bajo precio y utilizando tecnologías OpenSource El objetivo principal de este PFC es ayudar a la gente con una discapacidad a tener mejor calidad de vida, haciéndose independiente en las labores del hogar, ya que será el hogar quien haga las labores. La accesibilidad de este servicio, es por tanto, la mayor de las metas. Para conseguir accesibilidad para todas las personas, se necesita un servicio barato y de fácil aprendizaje. Se elige la red social WhatsApp como interprete, ya que no necesita de formación al ser una aplicación usada mayoritariamente en España y por la capacidad del dictado de voz, y se eligen las tecnologías OpenSource por ser la gran mayoría de ellas gratuitas o de pago solo el hardware. La utilización de la Red social WhatsApp se justifica por sí sola, en septiembre de 2015 se registraron 900 millones de usuarios. Este dato es fruto, también, de la reciente adquisición por parte de Facebook y hace que cumpla el primer requisito de accesibilidad para el servicio domotico que se presenta. Desde hace casi 5 años existe una API liberada de WhatsApp, que la comunidad OpenSource ha utilizado, para crear sus propios clientes o aplicaciones de envío de mensajes, usando la infraestructura de la red social. La empresa no lo aprueba abiertamente, pero la liberación de la API fue legal y su uso también lo es. Por otra parte la empresa se reserva el derecho de bloquear cuentas por el uso fraudulento de su infraestructura. Las tecnologías OpenSource utilizadas han sido, distribuciones Linux (Raspbian) y lenguajes de programación PHP, Python y BASHSCRIPT, todo cubierto por la comunidad, ofreciendo soporte y escalabilidad. Es por ello que se utiliza, como matriz y gestor domotico central, una RaspberryPI. Los servicios que el gestor ofrece en su primera versión incluyen el control domotico de la iluminación eléctrica general o personal, el control de todo tipo de electrodomésticos, el control de accesos para la puerta principal de entrada y el control de medios audiovisuales. ABSTRACT. This final thesis aims to develop a domotic manager based on the speech recognition capacity implemented in the social network, WhatsApp. This Manager not only banish the wrong idea about how expensive and useless is a domotic installation, this manager will give an opportunity to handicapped people to improve their quality of life. These people, with a simple voice command to their own WhatsApp, could enable or disable all the domotics devices installed in their living places. “On Lamp”, “ON Oven”, “Open Door”… This service reduce considerably the budgets because the use of OpenSource Technologies. The main achievement of this thesis is help handicapped people improving their quality of life, making independent from the housework. The house will do the work. The accessibility is, by the way, the goal to achieve. To get accessibility to a width range, we need a cheap, easy to learn and easy to use service. The social Network WhatsApp is one part of the answer, this app does not need explanation because is used all over the world, moreover, integrates the speech recognition capacity. The OpenSource technologies is the other part of the answer due to the low costs or, even, the free costs of their implementations. The use of the social network WhatsApp is explained by itself. In September 2015 were registered around 900 million users, of course, the recent acquisition by Facebook has helped in this astronomic number and match the first law of this service about the accessibility. Since five years exists, in the internet, a free WhatsApp API. The OpenSource community has used this API to develop their own messaging apps or desktop-clients, using the WhatsApp infrastructure. The company does not approve officially, however le API freedom is legal and the use of the API is legal too. On the other hand, the company can block accounts who makes a fraudulent use of his infrastructure. OpenSource technologies used in this thesis are: Linux distributions (Raspbian) and programming languages PHP, Python and BASHCSRIPT, all of these technologies are covered by the community offering support and scalability. Due to that, it is used a RaspberryPI as the Central Domotic Manager. The domotic services that currently this manager achieve are: Domotic lighting control, electronic devices control, access control to the main door and Media Control.
Resumo:
Desde o início das pesquisas em folkcomunicação, essa área de estudo vem sofrendo uma evolução contínua com a descoberta de novos objetos de investigação diante de seu veloz desenvolvimento. A Internet está mudando a forma de como as pessoas se comunicam e vivem. No bojo dessas mudanças, a Folkcomunicação, que perpassa a comunicação das massas por ter sua gênese no folclore, vem ganhando novos objetos com a evolução das tecnologias da Informação. A questão principal que esse trabalho levanta é a de verificar como a Internet influenciou o pensamento da folkcomunicação. No entanto, este estudo pretende elucidar algumas perguntas, como: Quem são os novos líderes folkcomunicacionais? ; Como os meios de comunicação de massa influenciam o conteúdo da mensagem folk na Internet? ; A mensagem folk pela Internet teve de ser adaptada ao meio? ; Podemos encontrar manifestações para todas as audiências folk na Internet? , e Como as audiências recebem o conteúdo da comunicação? . Para tanto, buscou-se embasamento em conceitos de Luiz Beltrão, e atualizações deste em José Marques de Melo, Joseph Luyten, Cristina Schmidt, Osvaldo Meira Trigueiro, dentre outros. Os resultados obtidos levam ao entendimento de que as pesquisas do campo comunicacional no ambiente virtual na Internet seguem um padrão próximo das manifestações encontradas em outros suportes ainda que se possam verificar atualizações temporais e espaciais.(AU)
Resumo:
Desde o início das pesquisas em folkcomunicação, essa área de estudo vem sofrendo uma evolução contínua com a descoberta de novos objetos de investigação diante de seu veloz desenvolvimento. A Internet está mudando a forma de como as pessoas se comunicam e vivem. No bojo dessas mudanças, a Folkcomunicação, que perpassa a comunicação das massas por ter sua gênese no folclore, vem ganhando novos objetos com a evolução das tecnologias da Informação. A questão principal que esse trabalho levanta é a de verificar como a Internet influenciou o pensamento da folkcomunicação. No entanto, este estudo pretende elucidar algumas perguntas, como: Quem são os novos líderes folkcomunicacionais? ; Como os meios de comunicação de massa influenciam o conteúdo da mensagem folk na Internet? ; A mensagem folk pela Internet teve de ser adaptada ao meio? ; Podemos encontrar manifestações para todas as audiências folk na Internet? , e Como as audiências recebem o conteúdo da comunicação? . Para tanto, buscou-se embasamento em conceitos de Luiz Beltrão, e atualizações deste em José Marques de Melo, Joseph Luyten, Cristina Schmidt, Osvaldo Meira Trigueiro, dentre outros. Os resultados obtidos levam ao entendimento de que as pesquisas do campo comunicacional no ambiente virtual na Internet seguem um padrão próximo das manifestações encontradas em outros suportes ainda que se possam verificar atualizações temporais e espaciais.(AU)
Resumo:
As the telecommunications industry evolves over the next decade to provide the products and services that people will desire, several key technologies will become commonplace. Two of these, automatic speech recognition and text-to-speech synthesis, will provide users with more freedom on when, where, and how they access information. While these technologies are currently in their infancy, their capabilities are rapidly increasing and their deployment in today's telephone network is expanding. The economic impact of just one application, the automation of operator services, is well over $100 million per year. Yet there still are many technical challenges that must be resolved before these technologies can be deployed ubiquitously in products and services throughout the worldwide telephone network. These challenges include: (i) High level of accuracy. The technology must be perceived by the user as highly accurate, robust, and reliable. (ii) Easy to use. Speech is only one of several possible input/output modalities for conveying information between a human and a machine, much like a computer terminal or Touch-Tone pad on a telephone. It is not the final product. Therefore, speech technologies must be hidden from the user. That is, the burden of using the technology must be on the technology itself. (iii) Quick prototyping and development of new products and services. The technology must support the creation of new products and services based on speech in an efficient and timely fashion. In this paper I present a vision of the voice-processing industry with a focus on the areas with the broadest base of user penetration: speech recognition, text-to-speech synthesis, natural language processing, and speaker recognition technologies. The current and future applications of these technologies in the telecommunications industry will be examined in terms of their strengths, limitations, and the degree to which user needs have been or have yet to be met. Although noteworthy gains have been made in areas with potentially small user bases and in the more mature speech-coding technologies, these subjects are outside the scope of this paper.