1000 resultados para Internet -- Búsqueda
Resumo:
El presente trabajo de tesis se encuadra dentro del proyecto Language Toolkit, resultado de la cooperación entre la Cámara de Comercio de Forlì-Cesena y la Scuola di Lingue e Letterature, Traduzione e Interpretazione de Forlì, con el fin de acercar a los recién licenciados al mundo empresarial. En colaboración con la sociedad limitada Seico Compositi srl, se ha realizado la localización parcial de su sitio web, así como la traducción de sus pertinentes fichas técnicas de productos de punta. Dicha empresa opera en el territorio y es líder en el sector de la construcción especializada por lo que se refiere a los refuerzos estructurales y a la producción y distribución de materiales compuestos. El trabajo consta de tres capítulos: el primero está dedicado al fenómeno de la localización y abarca desde sus orígenes hasta el caso específico de la localización de sitios web pasando por su adaptación lingüístico-técnica y prestando una especial atención a los aspectos culturales que la misma conlleva. En un segundo capítulo se analizan las lenguas de especialidad y la terminología como marco teórico del presente trabajo; todo ello permite presentar el dominio objeto de estudio y las fases que han marcado el trabajo de catalogación terminológica, desde la búsqueda y recopilación de textos paralelos hasta la creación de los corpus bilingües (IT/ES) así como de un pequeño banco de datos terminológicos específico. En este capítulo se explican también las dificultades y problemáticas encontradas durante la preparación de las fichas terminológicas y las estrategias adoptadas para solucionarlas. Para finalizar, el último capítulo se centra en la actividad práctica de la traducción y en los diferentes tipos de intervención aplicados a los textos de salida. Tras algunas reflexiones sobre la internacionalización empresarial, este mismo capítulo continúa con el análisis en clave contrastiva del sitio web, de su estructura interna y de los textos originales, para así concluir con el comentario de la traducción acompañado por ejemplos.
Resumo:
Este trabajo presenta un marco de referencia para el estudio de las fuerzas del ambiente tecnológico que intervienen en la interacción usuario-internet, en tanto instrumentos de aculturación, de comunicación y de búsqueda de información en web
Resumo:
El presente trabajoexplorael uso y la apropiación de Internet por parte de la red colectiva y global Millones Contra Monsanto, focalizando en el caso argentino. Se indagan las formas organizativas, la identidad que constituye, y la articulación entre las prácticas en el ciberespacio y en el territorio,para detectar la correlación entre sus acciones de resistencia al agronegocioen el plano online y offline, siempre considerando que esta separación cumple un fin conceptual puesto que conforman un continum de la misma realidad.Para realizar esta investigación de carácter exploratorio, se estudian materiales audiovisuales y documentos elaborados por el colectivo observado, se lleva a cabo una búsqueda y análisis de artículos periodísticos y bibliografía específica, y se recurre a la observación del ciberespacio planteada desde una estrategia cualitativa a partir de la observación participante en Internet que supone no sólo observar sino acceder y participar en los contextos online definidos por la tecnología y sus usuarios.La finalidad de este trabajo persigue una aproximaciónanalíticaal estudio de las transformaciones que los usos y apropiaciones de Internet producen en la construcción de nuevas identidades y en los imaginarios sociales sobre la relación sociedad-naturaleza
Resumo:
El presente trabajoexplorael uso y la apropiación de Internet por parte de la red colectiva y global Millones Contra Monsanto, focalizando en el caso argentino. Se indagan las formas organizativas, la identidad que constituye, y la articulación entre las prácticas en el ciberespacio y en el territorio,para detectar la correlación entre sus acciones de resistencia al agronegocioen el plano online y offline, siempre considerando que esta separación cumple un fin conceptual puesto que conforman un continum de la misma realidad.Para realizar esta investigación de carácter exploratorio, se estudian materiales audiovisuales y documentos elaborados por el colectivo observado, se lleva a cabo una búsqueda y análisis de artículos periodísticos y bibliografía específica, y se recurre a la observación del ciberespacio planteada desde una estrategia cualitativa a partir de la observación participante en Internet que supone no sólo observar sino acceder y participar en los contextos online definidos por la tecnología y sus usuarios.La finalidad de este trabajo persigue una aproximaciónanalíticaal estudio de las transformaciones que los usos y apropiaciones de Internet producen en la construcción de nuevas identidades y en los imaginarios sociales sobre la relación sociedad-naturaleza
Resumo:
El presente trabajoexplorael uso y la apropiación de Internet por parte de la red colectiva y global Millones Contra Monsanto, focalizando en el caso argentino. Se indagan las formas organizativas, la identidad que constituye, y la articulación entre las prácticas en el ciberespacio y en el territorio,para detectar la correlación entre sus acciones de resistencia al agronegocioen el plano online y offline, siempre considerando que esta separación cumple un fin conceptual puesto que conforman un continum de la misma realidad.Para realizar esta investigación de carácter exploratorio, se estudian materiales audiovisuales y documentos elaborados por el colectivo observado, se lleva a cabo una búsqueda y análisis de artículos periodísticos y bibliografía específica, y se recurre a la observación del ciberespacio planteada desde una estrategia cualitativa a partir de la observación participante en Internet que supone no sólo observar sino acceder y participar en los contextos online definidos por la tecnología y sus usuarios.La finalidad de este trabajo persigue una aproximaciónanalíticaal estudio de las transformaciones que los usos y apropiaciones de Internet producen en la construcción de nuevas identidades y en los imaginarios sociales sobre la relación sociedad-naturaleza
Resumo:
Partiendo de la generalidad de la actividad emprendedora, los autores analizan la especificidad del emprendimiento en Internet. Se parte de la definición de un marco teórico basado en cuatro componentes genéricos -emprendedor, financiación, internacionalización e innovación-, que se particularizan para Internet como escenario sociotécnico con características propia. El análisis se completa con la ilustración de estas dimensiones básicas a través de cuatro casos de estudio que sirven de base para la extracción de algunas conclusiones útiles en términos de la elaboración crítica de esos cuatro elementos como parte de un modelo genérico para la creación de empresas de base tecnológica en Internet en el que las consideraciones sociodemográficas aplican de forma directa sobre la variable de "emprendedor" e indirectamente, en mayor o menor grado, sobre las demás: los procesos de internacionalización, la búsqueda de financiación y los tipos de innovación introducidas en los procesos de creación de la empresa.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.
Resumo:
Los sistemas de búsqueda de respuestas (BR) se pueden considerar como potenciales sucesores de los buscadores tradicionales de información en la Web. Para que sean precisos deben adaptarse a dominios concretos mediante el uso de recursos semánticos adecuados. La adaptación no es una tarea trivial, ya que deben integrarse e incorporarse a sistemas de BR existentes varios recursos heterogéneos relacionados con un dominio restringido. Se presenta la herramienta Maraqa, cuya novedad radica en el uso de técnicas de ingeniería del software, como el desarrollo dirigido por modelos, para automatizar dicho proceso de adaptación a dominios restringidos. Se ha evaluado Maraqa mediante una serie de experimentos (sobre el dominio agrícola) que demuestran su viabilidad, mejorando en un 29,5% la precisión del sistema adaptado.
Resumo:
A finales del siglo xviii el cirujano inglés Edward Jenner (1749-1823) propuso la inoculación de la viruela de las vacas (cowpox) como método para prevenir la viruela humana (smallpox). La publicación de sus observaciones constituye la primera inoculación de un virus atenuado y el inicio de la vacunología como disciplina científica. La rápida difusión que obtuvo este hallazgo llevó aparejado un interés de los vacunadores por localizar vacas afectadas por el cowpox con el fin de mantener activa la vacunación de forma autóctona. Se hicieron también ensayos buscando la reproducción del virus en otras especies animales. Ninguna de estas iniciativas obtuvo el éxito esperado.
Resumo:
[ES]Vídeo tutorial en el que se resuelve un conjunto de preguntas enlazadas por medio de herramientas de búsqueda en internet
Resumo:
El creciente número de sitios y recursos en Internet ha dificultado el proceso de búsqueda y recuperación de información útil para la formación e investigación. Aunque la Red cuenta con importantísimas fuentes, es desconocida por los motores de búsqueda tradicionales, a esta parte se le llama Red Profunda. Para acceder a este pequeño universo de Internet es necesario conocer los mecanismos, estrategias y herramientas que faciliten y garanticen el logro de nuestros objetivos.
Resumo:
--
Resumo:
Según la Organización Mundial del Trabajo (OIT, 2013), en la informalidad laboral abundan el emprendimiento, la iniciativa, el ingenio, el sacrificio y el esfuerzo -- No obstante, al mismo tiempo es sinónimo de empleos con bajos ingresos, sin protección social ni derechos, sin estabilidad y con escasas perspectivas de futuro -- Al tener en cuenta lo anterior se evidencian tanto la oportunidad como la necesidad de generar nuevas ideas que aprovechen la vinculación en el entorno digital de todo lo referente a la búsqueda y la oferta de servicios no convencionales de manera escalable en el tiempo, dado el crecimiento exponencial del uso de internet en los últimos años, lo que se traduce en ofrecer una forma de mezclar el talento que cada persona desarrolla en labores informales con un medio en el que las puede difundir y promocionar -- Al tomar lo anterior en consideración se plantea un modelo de plataforma digital que busca conectar oferta y demanda para generar soluciones a necesidades eventuales que surgen para el mantenimiento del hogar, como reparación de tuberías, daños eléctricos, carpintería o mejoras locativas en muros, pisos o techos o la consecución de una empleada del servicio con buena calificación, etc -- En este estudio se buscó información mediante entrevistas con las que se pueden generar mecanismos digitales orientados a conectar los oferentes con los demandantes de servicios no convencionales por medio de un canal de contacto directo
Resumo:
La Web 2.0 ha tenido un enorme éxito gracias a la posibilidad de una interacción dinámica por parte del usuario, ya no sólo a la hora de participar en elementos colaborativos, como puedan ser los foros, sino en compartir/añadir contenido a la Web. Dos ejemplos claros de este paradigma son YouTube y Flickr. El primero hospeda la mayor parte de los vídeos que podemos encontrar en Internet, y el segundo ha creado la mayor comunidad de fotógrafos existente en la red. Ambos servicios funcionan de una forma similar, el usuario es el que aporta contenidos junto a una información asociada al mismo. Al ser comunidades internacionales, la información añadida por el usuario se realiza en diversos idiomas, por lo que la búsqueda de recursos multimedia en estos sitios es dependiente del idioma de la consulta. En este artículo, presentamos Babxel, un sistema de recuperación de información multimedia y multilingüe, nacido como proyecto de fin de carrera de Ingeniería Informática, como extensión y mejora de FlickrBabel. Babxel aprovecha la capacidad de traducción multilingüe automática para generar más resultados de búsqueda relacionado con la consulta del usuario, resultados que se obtienen de las plataformas mencionadas anteriormente.