1000 resultados para TECNOLOGÍA DE LAS COMUNICACIONES


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo releva, reconstruye y analiza el concepto de intersubjetividad resultante del "giro comunicativo" y del desplazamiento del umbral de irreductibilidad social postulados por la teoría general de sistemas sociales (TGSS) de Niklas Luhmann. El trabajo asume la perspectiva de los jóvenes críticos luhmannianos, desde cuyo punto de vista es renovado el interés por el estatuto sociológico del concepto de intersubjetividad, ya que una vez reformulado comunicativamente, éste se vuelve problemático a la luz de las ambivalencias de su forma: consenso/disenso. Nuestra hipótesis de trabajo afirma que la intersubjetividad es emergente con respecto a la recursividad de las comunicaciones a la vez que es irreductible a la diferenciación estructural de expectativas. Se indagan de manera complementaria los vínculos con el concepto de selección de información y la diferencia entre aportes y temas, y se examinan los resultados obtenidos a la luz del concepto de triple contingencia

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Convención sobre los Derechos del Niño, aprobada por la Asamblea General de las Naciones Unidas en 1989, es el primer tratado internacional que considera los derechos de la niñez como una exigencia con fuerza jurídica obligatoria. El hecho de aceptar las obligaciones que de ella emanan, implica para los gobiernos nacionales el compromiso de proteger y asegurar esos derechos, implementando las políticas necesarias. Es así que en Argentina se sancionó la Ley 26061 de Protección Integral de los Derechos de los Niños, Niñas y Adolescentes, reemplazando la Ley 10903 ('Ley Agote'), cuyos lineamientos principales eran opuestos a la Convención. Esta modificación generó un impacto tal que se puede hablar de un cambio de paradigma, conociéndose como el pasaje de la Situación Irregular a la Protección Integral. El presente trabajo se desarrolla en el marco del proyecto en curso 'Identificación de factores asociados a la reintervención en problemáticas asistenciales de jóvenes II', que lleva adelante el Grupo de Investigación GIPJURI de Psicología Jurídica, en la Facultad de Psicología de la Universidad Nacional de Mar del Plata. El objetivo principal de este informe se centra en pesquisar qué representaciones sociales giran en torno a los Centros de Protección de los Derechos de los Niños (CPDeN) del partido de General Pueyrredón. Para definir el término representación social se tomó a Moscovici, quien las define como constructos cognitivos compartidos en la interacción social cotidiana, que le permiten al individuo interpretar y construir lo real, es decir, le proporcionan a los sujetos un entendimiento del sentido común respecto de sus experiencias en el mundo. Así como también a Denise Jodelet, para quien son una manera de interpretar y de pensar nuestra realidad cotidiana, una forma de conocimiento social, que se origina en la vida diaria, en el transcurso de las comunicaciones entre los individuos. Estos Centros de Protección son unidades técnico operativas con una o más sedes, creadas por la Ley Nacional 26.061 de Protección Integral de los Derechos de las Niñas, Niños y Adolescentes; y la Ley Provincial 13.298 de la Promoción y Protección de los Derechos de los Niños, que desempeñan las funciones de facilitar que el niño que tenga amenazados o violados sus derechos, pueda acceder a los programas y planes disponibles en su comunidad. (nota: ley 13298) Para el logro de dicho objetivo se recabó información mediante entrevistas semiestructuradas, administradas a quienes desempeñan su labor en instituciones que trabajan conjuntamente con los Centros pertenecientes al Partido de General Pueyrredón, en lo que respecta a la detección de derechos vulnerados y su posible restitución. Con tal propósito, los temas a indagar fueron los siguientes: el conocimiento que los entrevistados poseen en relación a la nueva ley de promoción y protección de los derechos del niño, indagando aspectos tales como: qué son los CPDeN, quiénes lo componen, de qué estructura del estado dependen, qué función cumplen; las problemáticas que reciben, instituciones con las que se relacionan, eficacia de la estructura y eficiencia de las intervenciones. Este trabajo constituye una primera aproximación de un proyecto en curso. A través de este sondeo de opinión se intentara realizar una descripción de las representaciones sociales respecto de los CPDeN que circulan actualmente en las instituciones que fueron entrevistadas hasta el momento. Objetivos: -Realizar una descripción de las representaciones sociales que circulan en torno a los Centros de Protección de los Derechos del Niño (C.P.De.N) del Partido de General Pueyrredón. -Plantear hipótesis sobre el posible impacto que los centros promueven en la comunidad. -Metodología: El estudio será de tipo descriptivo exploratorio. La técnica a implementar será una entrevista semi-estructurada en base a un protocolo diseñado por el grupo de investigación. -Población: Profesionales de diversas áreas que trabajan en instituciones de orden público y que articulan con los CPDeN de la ciudad de Mar del Plata. -Muestra: La muestra seleccionada para el actual trabajo consta de un total de 27 profesionales que se encuentran trabajando en instituciones de orden público y que poseen vinculación con los C.P.De.N, entre los cuales figuran: trabajadores sociales, psicólogos, docentes, Lic. En Cs.de la educación, psicopedagogos, fonoaudiólogo, terapista ocupacional, médicos. Fueron consultadas un total de 19 Instituciones educativas: 6 escuelas primarias, 1 escuela secundaria, 2 jardines de infantes y un total de 3 instituciones que brindan servicios de salud (H.I.G.A., IREMI, salas primarias de salud). La selección de la muestra fue realizada bajo los siguientes requisitos a cumplir por los entrevistados: mantener actualmente una articulación con el centro de protección y un mínimo de 5 años o más de experiencia, en el área de trabajo que articula con los CPDeN permitiendo así un mayor nivel de aproximación a la realidad

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo tiene por objeto describir y analizar, a partir de la experiencia llevada adelante en la Secretaría Legal y Técnica de la Provincia de Buenos Aires en el período 2010-2012, los cambios e impactos ocurridos en las formas de organización del trabajo y los procedimientos de gestión, a partir de la definición y puesta en práctica de un proceso de modernización e introducción de tecnologías de la información y las comunicaciones (TICs) en el organismo. A su vez, se identificarán los principales beneficios y resultados alcanzados en términos de eficiencia y calidad, así como también aquellos desafíos e inconvenientes enfrentados en el proceso de cambio. Para ello se tendrán en cuenta, como dimensiones de análisis, la organización y rediseño de procesos y procedimientos; la incorporación de TICs; la generación de información para la evaluación y mejora de la gestión; y el fortalecimiento de las competencias de la Administración, a partir de la capacitación de los agentes y funcionarios

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente versará sobre la relación existente entre el dominio público y privado del conocimiento, es decir, entre el Derecho de Autor y el Derecho de la Comunidad. A partir de indagar el objetivo perseguido por la regulación en sus inicios y las variaciones en la significación de distintos conceptos directamente relacionados con las garantías mencionadas, se intentará determinar sobre qué objetos recae el Derecho de Autor y las peculiaridades que éstos presentan. Con el objetivo de conocer el modo en que el derecho de autor y el dominio público han sido interpretados y salvaguardados a lo largo del tiempo por nuestros representantes, se analizarán los trámites parlamentarios que dieron origen a la Ley de Propiedad Intelectual y aquellos otros que sucesivamente operaron sobre la misma modificaciones. A lo largo del desarrollo del trabajo se presentarán las distintas posiciones relacionadas con el derecho de autor y el dominio público, y los nuevos criterios emergentes para su tratamiento. Finalmente, y con el objetivo de ilustrar el nuevo papel que le cabe a los bibliotecarios para el desempeño de su rol profesional, se analizarán las medidas tomadas en materia de legislación frente al escenario que inauguran las nuevas tecnologías

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este artículo se describe una experiencia de innovación educativa realizada en el marco de la titulación de Sistemas de Telecomunicación de la EUITT de la Universidad Politécnica de Madrid, en la que se ha intentado graduar la dificultad de acceso de los alumnos al uso de ciertos laboratorios altamente tecnificados, por medio de instrumentos pedagógicos basados en el uso de tecnologías de la información y las comunicaciones. Se presenta, por tanto, un escenario propicio para la aplicación de una metodología educativa de formación combinada o blended-learning que potencie el proceso de aprendizaje de los estudiantes así como la optimización del uso de los costosos recursos materiales puestos a su disposición.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Una de los rasgos más característicos de la presente globalización es el desarrollo de la fragmentación de la producción, siendo esta, la división del proceso productivo en diferentes localizaciones a lo largo de varios países. Debido a la globalización de los mercados, al surgimiento de nuevas zonas económicas (Zona Euro, Nafta, Mercosur, etc.), a los países emergentes (China, India, Rusia, Brasil), a la reducción de los costes del transporte internacional y al desarrollo de las comunicaciones, ha provocado el incremento del comercio internacional en bienes intermedios, así como el diseño, fabricación y ensamblaje de un producto en diferentes localizaciones a lo largo de varios países. El incremento de la fragmentación en el comercio internacional ha creado un interés por saber cuales son los factores determinantes de la misma en bienes intermedios. El indicador IITV es el utilizado para medir la fragmentación de la producción entre España y sus 19 principales socios comerciales y varios factores sugeridos por la literatura en fragmentación son utilizados en un rango de años desde el año 2004 al año 2008. Los resultados obtenidos muestran que la gran mayoría del comercio en bienes intermedios es IITV y los factores determinantes de la fragmentación de la producción en el sector del automóvil en España, son el tamaño del mercado, la pertenencia a UE, la distancia y el coeficiente de libre comercio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Aunque se conocen muchos métodos precisos para medidas de humedad puntuales, hasta hace muy poco, no existían métodos in situ para la medida del contenido de humedad a escala de metros o de kilómetros, importantes cuando pensamos a nivel de cuenca hidrográfica. La fibra óptica ha sido muy utilizada en el área de las comunicaciones. Sin embargo, entre sus aplicaciones más recientes, destaca la de su uso para medir la temperatura incluso en grandes distancias (hasta 10 km) y con una alta frecuencia temporal, lo que ha abierto un amplio abanico de posibilidades muy importantes en el seguimiento medioambiental (Selker et al. 2006a; 2006b, Tyler et al. 2008; Westhoff et al., 2007; Freifeld et al., 2008). La precisión en la medida puede alcanzar ± 0,2ºC en una distancia de ± 25 cm. El método utilizado en los ensayos explicados en esta comunicación es el denominado “Distributed Fiber Optic Temperature Measurement” (medida distribuida de la temperatura con fibra óptica) o DFOT, que consiste en emitir un impulso óptico con láser y medir en el tiempo la señal reflejada en diferentes puntos de la fibra. Este método se ha utilizado en el estudio de filtraciones de minas abandonadas (Selker et al. 2006a) y en proyectos relacionados con el cambio climático, como en el estudio del deshielo en glaciares y balances hídricos en pequeñas cuencas (Selker et al. 2006b). Además, en medios porosos, se ha usado, con buenos resultados para la detección de rotura de diques en presas (Perzlmaier et al. 2004a y 2004b) y para la detección de entrada de agua en vertederos urbanos con cubierta vegetal (Weiss, 2003b). Imhoff et al. (2006) en su revisión de técnicas de medidas de contenido de agua en el suelo destaca el uso del “DFOT heat pulse method” (método DFOT del pulso de calor).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente tesis analiza la integración del sector de las telecomunicaciones con los de TI y medios que conforman el actual hiper-sector de las TIC, para abordar una propuesta de valor que se plantea a dos niveles. Se expone de un lado, la iniciativa WIMS 2.0, que aborda los aspectos tecnológicos y estratégicos de la convergencia telco e Internet para, posteriormente, definir un nuevo modelo de negocio, que adaptado al nuevo sector integrado y siguiendo paradigmas inéditos como los que plantea la innovación abierta, permita generar nuevos flujos de ingresos en áreas no habituales para los operadores de telecomunicaciones. A lo largo del capítulo 2, el lector encontrará la contextualización del entorno de las comunicaciones de banda ancha desde tres vertientes: los aspectos tecnológicos, los económicos y el mercado actual, todo ello enfocado en una dimensión nacional, europea y mundial. Se establece de esta manera las bases para el desarrollo de los siguientes capítulos al demostrar cómo la penetración de la banda ancha ha potenciado el desarrollo de un nuevo sistema de valor en el sector integrado de las TIC, alrededor del cual surgen propuestas de modelos de negocio originales que se catalogan en una taxonomía propia. En el tercer capítulo se detalla la propuesta de valor de la iniciativa WIMS 2.0, fundada y liderada por el autor de esta tesis. WIMS 2.0, como iniciativa abierta, se dirige a la comunidad como una propuesta de un nuevo ecosistema y como un modelo de referencia integrado sobre el que desplegar servicios convergentes. Adicionalmente, sobre el planteamiento teórico definido se aporta el enfoque práctico que supone el despliegue del modelo de referencia dentro de la arquitectura de un operador como Telefónica. El capítulo 4 muestra el modelo de negocio Innovación 2.0, basado en la innovación abierta con el objetivo de capturar nuevos flujos de ingresos incrementando el portfolio de servicios innovadores gracias a las ideas frescas y brillantes de start-ups. Innovación 2.0 lejos de quedarse en una mera propuesta teórica, muestra sus bondades en el éxito práctico en el mercado que ha validado las hipótesis planteadas. El último capítulo plantea las líneas futuras de investigación tanto en el ámbito de la iniciativa WIMS 2.0 como en el modelo de Innovación 2.0, algunas de las cuales se están comenzando a abordar. 3 Abstract This thesis examines the integration of telecommunications sector with IT and media that make up the current hyper-ICT sector, to address a value proposition that arises at two levels. On one side, WIMS 2.0 initiative, which addresses the technological and strategic aspects of the telco and Internet convergence to later define a new business model, adapted to the new integrated sector and following original paradigms such as those posed by open innovation, which generates new revenue streams in areas not typical for telecom operators. Throughout Chapter 2, the reader will find the contextualization of the broadband communications environment from three aspects: technological, economic and the current market all focused on a national, European and world scale. Thus it establishes the basis for the development of the following chapters by demonstrating how the penetration of broadband has led to the development of a new value system in the integrated sector of the ICT, around which arise proposals of originals business models, which are categorized in a own taxonomy. The third chapter outlines the value proposition of the WIMS 2.0 initiative, founded and led by the author of this thesis. WIMS 2.0, as open initiative, presents to the community a proposal for a new ecosystem and an integrated reference model on which to deploy converged services. Additionally, above the theoretical approach defined, WIMS 2.0 provides the practical approach is provided which is the deployment of the reference model into the architecture of an operator such as Telefónica. Chapter 4 shows the Innovation 2.0 business model, based on open innovation with the goal of capturing new revenue streams by increasing the portfolio of innovative services thanks to the fresh and brilliant ideas from start-ups. Innovation 2.0, far from being a mere theoretical proposition, shows its benefits in the successful deployment in the market, which has validated the hypotheses. The last chapter sets out the future research at both the WIMS 2.0 initiative and Innovation 2.0 model, some of which are beginning to be addressed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este proyecto se ha diseñado un sistema de adquisición y uso compartido de datos orientado a la implantación en un vehículo monoplaza de Formula SAE. Más concretamente, se encarga de recoger la información proporcionada por cuatro sensores infrarrojos de temperatura que sondearán constantemente la temperatura a la que se encuentran las ruedas del vehículo. La información, recogida en una memoria de almacenamiento masivo, se compartirá con otros dispositivos mediante un bus común. Los sensores empleados para generar la información los proporciona Melexis. Dichos sensores permiten estar todos simultáneamente conectados en un bus común gracias a su electrónica interna. Mediante el bus I2C irán conectados los cuatro sensores de nuestra aplicación (uno por cada rueda) permitiéndose añadir a posteriori más sensores o incluso otros elementos que permitan la comunicación por este tipo de bus I2C. La gestión de las tareas se realiza mediante el microcontrolador DSPIC33FJ256GP710-I/PF proporcionado por Microchip. Este es un microcontrolador complejo, por lo que para nuestra aplicación desaprovecharemos parte de su potencial. En nuestra tarjeta ha sido solamente añadido el uso de los dos I2C (uno para la tarjeta SD y el otro para los sensores), el módulo ECAN1 (para las comunicaciones por bus CAN), el módulo SPI (para acceder a una memoria Flash), 4 ADCs (para posibles mediciones) y 2 entradas de interrupción (para posible interactuación con el usuario), a parte de los recursos internos necesarios. En este proyecto se realiza tanto el desarrollo de una tarjeta de circuito impreso dedicada a resolver la funcionalidad requerida, así como su programación a través del entorno de programación facilitado por Microchip, el ICD2 Programmer. In this project, an acquisition and sharing system of data, which is oriented to be installed in a Formula SAE single-seater vehicle, has been designed. Concretely, it is responsible for getting the information supplied by four IR temperature sensors that monitor the wheels temperature. The information, which is loaded in a massive storage memory, will be shared with other devices by means of a common bus. The sensors used to generate the information are supplied by Melexis. Such specific sensors let that all they can be connected to the same bus at the same time due to their internal electronic. The four sensors will be connected through an I2C bus, one for each wheel, although we could add later more sensors or even other devices that they were able to let the I2C communication. Tasks management will be done by means of the DSPIC33FJ256GP710-I/PF microcontroller, which will be supplied by Microchip. This is a complex microcontroller, so, in our application we waste off a part of its potential. In our PCB has only been incorporated the use of the two I2C (one for the SD card and the other for the sensors), the ECAN module (to communicate devices), the SPI module (to access to the Flash memory), 4 ADC’s (for possible measurements) and 2 interrupt inputs (for possible inter-action with the user), a part of the necessary internal resources. This project aims the PCB development dedicated to solve the requested functionality and its programming through the programming environment provided by Microchip (the ICD2 programmer).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Internet de las Cosas (IoT), como parte de la Futura Internet, se ha convertido en la actualidad en uno de los principales temas de investigación; en parte gracias a la atención que la sociedad está poniendo en el desarrollo de determinado tipo de servicios (telemetría, generación inteligente de energía, telesanidad, etc.) y por las recientes previsiones económicas que sitúan a algunos actores, como los operadores de telecomunicaciones (que se encuentran desesperadamente buscando nuevas oportunidades), al frente empujando algunas tecnologías interrelacionadas como las comunicaciones Máquina a Máquina (M2M). En este contexto, un importante número de actividades de investigación a nivel mundial se están realizando en distintas facetas: comunicaciones de redes de sensores, procesado de información, almacenamiento de grandes cantidades de datos (big--‐data), semántica, arquitecturas de servicio, etc. Todas ellas, de forma independiente, están llegando a un nivel de madurez que permiten vislumbrar la realización de la Internet de las Cosas más que como un sueño, como una realidad tangible. Sin embargo, los servicios anteriormente mencionados no pueden esperar a desarrollarse hasta que las actividades de investigación obtengan soluciones holísticas completas. Es importante proporcionar resultados intermedios que eviten soluciones verticales realizadas para desarrollos particulares. En este trabajo, nos hemos focalizado en la creación de una plataforma de servicios que pretende facilitar, por una parte la integración de redes de sensores y actuadores heterogéneas y geográficamente distribuidas, y por otra lado el desarrollo de servicios horizontales utilizando dichas redes y la información que proporcionan. Este habilitador se utilizará para el desarrollo de servicios y para la experimentación en la Internet de las Cosas. Previo a la definición de la plataforma, se ha realizado un importante estudio focalizando no sólo trabajos y proyectos de investigación, sino también actividades de estandarización. Los resultados se pueden resumir en las siguientes aseveraciones: a) Los modelos de datos definidos por el grupo “Sensor Web Enablement” (SWE™) del “Open Geospatial Consortium (OGC®)” representan hoy en día la solución más completa para describir las redes de sensores y actuadores así como las observaciones. b) Las interfaces OGC, a pesar de las limitaciones que requieren cambios y extensiones, podrían ser utilizadas como las bases para acceder a sensores y datos. c) Las redes de nueva generación (NGN) ofrecen un buen sustrato que facilita la integración de redes de sensores y el desarrollo de servicios. En consecuencia, una nueva plataforma de Servicios, llamada Ubiquitous Sensor Networks (USN), se ha definido en esta Tesis tratando de contribuir a rellenar los huecos previamente mencionados. Los puntos más destacados de la plataforma USN son: a) Desde un punto de vista arquitectónico, sigue una aproximación de dos niveles (Habilitador y Gateway) similar a otros habilitadores que utilizan las NGN (como el OMA Presence). b) Los modelos de datos están basado en los estándares del OGC SWE. iv c) Está integrado en las NGN pero puede ser utilizado sin ellas utilizando infraestructuras IP abiertas. d) Las principales funciones son: Descubrimiento de sensores, Almacenamiento de observaciones, Publicacion--‐subscripcion--‐notificación, ejecución remota homogénea, seguridad, gestión de diccionarios de datos, facilidades de monitorización, utilidades de conversión de protocolos, interacciones síncronas y asíncronas, soporte para el “streaming” y arbitrado básico de recursos. Para demostrar las funcionalidades que la Plataforma USN propuesta pueden ofrecer a los futuros escenarios de la Internet de las Cosas, se presentan resultados experimentales de tres pruebas de concepto (telemetría, “Smart Places” y monitorización medioambiental) reales a pequeña escala y un estudio sobre semántica (sistema de información vehicular). Además, se está utilizando actualmente como Habilitador para desarrollar tanto experimentación como servicios reales en el proyecto Europeo SmartSantander (que aspira a integrar alrededor de 20.000 dispositivos IoT). v Abstract Internet of Things, as part of the Future Internet, has become one of the main research topics nowadays; in part thanks to the pressure the society is putting on the development of a particular kind of services (Smart metering, Smart Grids, eHealth, etc.), and by the recent business forecasts that situate some players, like Telecom Operators (which are desperately seeking for new opportunities), at the forefront pushing for some interrelated technologies like Machine--‐to--‐Machine (M2M) communications. Under this context, an important number of research activities are currently taking place worldwide at different levels: sensor network communications, information processing, big--‐ data storage, semantics, service level architectures, etc. All of them, isolated, are arriving to a level of maturity that envision the achievement of Internet of Things (IoT) more than a dream, a tangible goal. However, the aforementioned services cannot wait to be developed until the holistic research actions bring complete solutions. It is important to come out with intermediate results that avoid vertical solutions tailored for particular deployments. In the present work, we focus on the creation of a Service--‐level platform intended to facilitate, from one side the integration of heterogeneous and geographically disperse Sensors and Actuator Networks (SANs), and from the other the development of horizontal services using them and the information they provide. This enabler will be used for horizontal service development and for IoT experimentation. Prior to the definition of the platform, we have realized an important study targeting not just research works and projects, but also standardization topics. The results can be summarized in the following assertions: a) Open Geospatial Consortium (OGC®) Sensor Web Enablement (SWE™) data models today represent the most complete solution to describe SANs and observations. b) OGC interfaces, despite the limitations that require changes and extensions, could be used as the bases for accessing sensors and data. c) Next Generation Networks (NGN) offer a good substrate that facilitates the integration of SANs and the development of services. Consequently a new Service Layer platform, called Ubiquitous Sensor Networks (USN), has been defined in this Thesis trying to contribute to fill in the previous gaps. The main highlights of the proposed USN Platform are: a) From an architectural point of view, it follows a two--‐layer approach (Enabler and Gateway) similar to other enablers that run on top of NGN (like the OMA Presence). b) Data models and interfaces are based on the OGC SWE standards. c) It is integrated in NGN but it can be used without it over open IP infrastructures. d) Main functions are: Sensor Discovery, Observation Storage, Publish--‐Subscribe--‐Notify, homogeneous remote execution, security, data dictionaries handling, monitoring facilities, authorization support, protocol conversion utilities, synchronous and asynchronous interactions, streaming support and basic resource arbitration. vi In order to demonstrate the functionalities that the proposed USN Platform can offer to future IoT scenarios, some experimental results have been addressed in three real--‐life small--‐scale proofs--‐of concepts (Smart Metering, Smart Places and Environmental monitoring) and a study for semantics (in--‐vehicle information system). Furthermore we also present the current use of the proposed USN Platform as an Enabler to develop experimentation and real services in the SmartSantander EU project (that aims at integrating around 20.000 IoT devices).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cada vez juegan un rol más relevante en nuestra vida las tecnologías de información, desde nuestros hogares hasta las empresas y gobiernos acceden a grandes volúmenes de datos e información, las comunicaciones ya no tienen impedimentos de distancias, un comprador y un vendedor puede estar en cualquier lugar, un producto que es adquirido en un comercio en Santiago a través de un medio de pago (tarjeta de crédito) en menos de un segundo la transacción va desde Chile a solicitar autorización en Singapur para ser aprobada. En la sociedad tanto oferentes como demandantes cuentan con información disponible en línea para la toma de decisiones. Existe una mayor apertura e integración económica iniciada con las redes comerciales, donde existen enfoques regionales y multilateral, que han impulsado la apertura del comercio y la integración económica. Son múltiples los tratados de libre comercio que apoyan al desarrollo económico, donde las crisis mundiales han afectado tanto las economías como el transporte, considerando que en el comercio internacional cerca del 90% se desarrolla a través de los puertos, es importante identificar relaciones entre el desarrollo de los medios de pago y el comercio electrónico a través de los puertos. Nuestra investigación busca integrar tanto aspectos de investigación científica como como investigación aplicada, de modo que sea un aporte al día a día de empresas en el sector de los medios de pago en Chile y quienes diseñan y definen la aplicación de normas y estándares. Esta tesis plantea una metodológica para analizar las relaciones entre la aplicación de estándares y sus efectos en la industria de los medios de pago en Chile. Este trabajo de investigación nos permitirá identificar entorno, variables que intervienen y evolución del mercado de los medios de pago, a través de un relevamiento del estado del arte de los medios de Pago en la industria Bancaria chilena. Buscaremos en el mercado de los medios de pago en la industria Chilena - sector Bancario, relaciones entre la aplicación de estándares y sus efectos en los volúmenes transaccionales, analizaremos las tendencias de los medios de pago y el desarrollo comercial del Puerto de Valparaíso. Se busca a través de esta metodológica poder mejorar la toma de decisiones en la industria de los medios de pago en Chile con una mejor gestión y uso de recursos. Every day information technology plays a greater role in our lives, from our homes to businesses, to how governments access large volumes of data and information. Communication is no longer hindered by distances, as a buyer and seller can be anywhere. A product that is purchased in a shop in Santiago through a payment option (credit card) in less than a second, a transaction will request authorization from Chile to Singapore to be approved. In this society both buyers and sellers have access to online information that is available for decision making. There is greater openness and economic integration that has begun within the commercial networks, in which there are regional and multilateral approaches that has helped expand trade and economic integration. Likewise, there are numerous free trade agreements that support economic development; however, the global crisis has affected economies like transportation. In regards to international commerce about 90% is developed through the ports, considering that the former is important to identify the relationships between the development of the payment options and e-commerce at the ports. Our research aims to integrate both the scientific research and applied research aspects, so that this will be a contribution to the day to day business for the payment options in Chile, and for those who design and define the application of norms and standards. This thesis offers a methodology to analyze the relationships between the application of standards and its affects in the industry of payment options in Chile. This research will allow us to identify the environmental variables that intervene and evolve the market of the payment options, through the analysis of the state of the art in the payment options in the Chilean Banking industry. In the market of the payment industry options we have looked specifically at the Chilean Banking industry and the relationship between the application of standards and their impact on transaction volumes. In addition, there has been an analysis of the activity of the payment options and wire transfers in the maritime industry in Valparaíso in order to define the feasibility of a model that allows us to relate these effects in these markets and the application of standards. We have searched the Chilean banking industry for the relationships between the application of standards and its effect on transaction volumes, in order to analyze the trends in the payment options and the commercial development at the Port of Valparaiso. Therefore, through the use of this methodology we look to be able to make better decisions in the payment options industry in Chile, with better management and use of the resources.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de este Proyecto es la definición precisa de la conexión del barrio de Zorrotzaurre con el de San Ignacio. Zorrotzaurre se emplaza en una península rodeada por el Río Nervión, el Canal de Deusto y el istmo que la une con el Distrito del mismo nombre. El Canal de Deusto fue una obra de origen antrópico que permitió crear una línea de muelles para el transporte marítimo de las mercancías allí fabricadas. En la actualidad se pretende la apertura del canal en la zona de aguas arriba, desapareciendo el istmo y transformando la península en isla. Ello genera per se la necesidad de crear puentes para asegurar la accesibilidad a la zona. Pero no solo es preciso el puente por la apertura del canal, el cambio de uso de la isla y su reconversión en un espacio residencial y terciario generarán la necesidad de mejorar las comunicaciones. La zona de proyecto se encuentra a una cota de cinco metros sobre la lámina de agua en régimen normal. Sobre las márgenes está prevista la edificación de viviendas y la reconversión de edificios próxima al río lo que define el trazado en planta y alzado de los accesos. Dado que la sobre-elevación de la lámina de agua en avenida de 500 años está prevista en 5 metros y que la cota de la calzada en estribos está prácticamente definida, los principales problemas para el diseño del puente los presenta la necesidad de gálibo suficiente. Para facilitar el paso de las aguas no se colocará ninguna pila en el cauce. A su vez, para crear un entorno más accesible y crear un menor impacto visual no se realizará ningún vano de acompañamiento. Por tanto, la longitud del puente será la necesaria para cubrir el ancho del canal, entre 75 y 80 metros. La anchura del puente responderá a la necesaria para la construcción de una calle de dos carriles, uno por sentido, un carril bici y aceras para peatones.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la actualidad, los avances en la ciencia de la esteganografía lingüística en español abren nuevas líneas de investigación en su aplicación a la protección / privacidad de las comunicaciones digitales y en el marcado de textos. El presente artículo profundiza en el interés del uso de la reordenación de complementos del verbo en textos existentes en lengua española con utilidad en esteganografía lingüística y en el marcado digital de textos (marca de agua). Abstract. At present the advances in the science of linguistic steganography in Spanish open new lines of research in its application for the protection / privacy of digital communications and in the marking of texts. This article studies the possible interest of reordering complements of the verb in existing texts in Spanish language with regard to its usefulness in linguistic steganography and in digital marking of texts (watermarks).