1000 resultados para sistemas en tiempo real


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el marco del proceso de capacitación e innovación pedagógica centrado en la Enseñanza para la comprensión (EpC) que se está implementando en el Colegio Nacional Rafael Hernández, se llevó a cabo una propuesta para la enseñanza de la Biología en tercer año. El enfoque tuvo en cuenta el modelo de EpC y la perspectiva sistémica Los contenidos seleccionados apuntaron a integrar los sistemas digestivo, respiratorio, circulatorio y excretor y el proceso de homeostasis. El eje central fue el sistema circulatorio. El tópico generativo: "El sistema circulatorio un delivery en mi cuerpo", se construyó suponiendo que una analogía de la vida cotidiana podría representar una forma clara y motivadora de pensar los aspectos funcionales del sistema circulatorio y su conexión con los otros sistemas del cuerpo estudiados en la asignatura. El hilo conductor orientó y ayudó a expresar el sentido de lo que se quería enseñar: "Los alumnos comprenderán el cuerpo humano como una Unidad constituida por una serie de sistemas en continua interacción.". En torno a éste eje se plantearon Metas de Comprensión: aquellos conceptos, procesos, habilidades que esperábamos que los estudiantes comprendieran. Los alumnos se mostraron muy interesados y en la clase lograron responder a múltiples interrogantes que promovieron la apropiación significativa de los contenidos. Utilizando un lenguaje cotidiano, se fue introduciendo el vocabulario específico, para favorecer el acceso a los nuevos contenidos .En un muy buen clima de trabajo se lograron las metas propuestas. La secuencia didáctica aplicada fue evaluada favorablemente por especialistas externos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las Empresas de Inserción en España no son una realidad reciente (Asensio, Miedes, 2001), pero sí lo es su regulación y consolidación (la ley nacional es de 2007). Estas empresas desarrollan un modelo de integración laboral de personas alejadas del empleo, en situación real de producción para el mercado, mediante el diseño de itinerarios individualizados de incorporación socio-laboral (Carmona, 2008). La Asociación de Empresas de Inserción de Andalucía (EIdA) es un actor territorial que agrupa desde 1998 a las empresas pioneras de este sector en esta región española (en 2011 eran 27 empresas con una media de 284 trabajadores anuales). Para la promoción de este tipo de experiencias EIdA emplea desde sus orígenes metodologías de Investigación-acción participativa (IAP), con el apoyo científico-técnico del Observatorio Local de Empleo de la Universidad de Huelva. Ambas entidades crearon el año 2000 el Observatorio Andaluz de Empresas de Inserción (OAEI) (Miedes, et. alia 2005). La comunicación, a modo de ilustración de las potencialidades del método Catalyse en el desarrollo de la inteligencia territorial (Girardot, 2008), presenta los resultados de un proceso de IAP, en el marco del OAEI, en el que cinco empresas de inserción se plantearon como objetivo analizar de manera conjunta los perfiles de todas las personas trabajadoras en las diferentes entidades, identificar sus principales necesidades de partida y evaluar sus progresos en términos de inserción socio-laboral. El fin último era poner en común la evaluación de las diferentes metodologías de itinerarios de inserción personalizados con el fin de mejorar la eficacia y eficiencia de estos procesos. El debate de los resultados arrojó consideraciones de las EI tanto de carácter aplicado (posibles líneas de actuación) como más globales de defensa del rol socioeconómico de las EI en el territorio. El proceso permitió establecer y afianzar criterios comunes y metodologías unificadas dirigidas a reforzar el sector, tanto interna, como externamente de cara a sus principales stakeholders públicos y privados. El proyecto permitió así al reforzamiento de lascapacidades de los actores involucrados, principal objetivo de los métodos y herramientas de la inteligencia territorial (Miedes, 2009) y puso de manifiesto las principales ventajas del uso de la metodología Catalyse cuando se dan los condicionantes mínimos para su aplicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En Argentina, las concepciones disciplinarias sobre la política se han visto desafiadas por "el 2001". Las etnografías sobre procesos de estatalización barrial escritas en ese contexto pueden comprenderse como una respuesta singular a este desafío. Especialmente, los análisis etnográficos han discutido los supuestos normativos implícitos en ciertas dicotomías: "movimientos sociales" - "clientelismo", "autonomía" - "cooptación", "resistencia" - "subordinación", "nuevo" - "viejo", "proyecto" - "urgencia". Estas etnografías suelen privilegiar el análisis de los acontecimientos presenciados por el investigador en tiempo presente. Leídas comparativamente, sin embargo, parecen dar cuenta de un cierto orden en las diferencias que propongo interpretar desde una mirada histórica. Más específicamente, me interesa profundizar en la elucidación de los sentidos de "el 2001" (su antes y su después) en las experiencias de la política de las personas descriptas etnográficamente. Dentro de este marco, he trabajado un punto de encuentro entre las etnografías: cómo las personas definen sus prácticas en la relación entre "trabajo", "barrio" y "política"

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: La presente ponencia tiene como objetivo determinar cuánta producción publicada en revistas pueden autoarchivar los investigadores de una institución. Se aplica una metodología basada en el análisis del modelo de acceso a las revistas donde publican los investigadores que permite estimar la disponibilidad en abierto real y potencial de su producción. Se presenta el caso de la producción científica en medicina del período 2006-2010 de dos universidades argentinas. Métodos: La producción de la Universidad Nacional de La Plata (UNLP) y de la Universidad Nacional de Rosario (UNR) fueron recogidas de la base de datos Scopus y los modelos de acceso a las revistas, determinados a partir de la consulta a Romeo-Sherpa, Dulcinea, DOAJ, SciELO, RedALyC, PubMed Central,. Resultados: En el caso de la UNLP el 28 de los artículos es de acceso abierto real al ser publicados en revistas OA y el 59 es potencialmente accesible por estar publicados en revistas de suscripción que permiten el autoarchivo. En la UNR el 42 de los artículos es de acceso abierto real y el 55 potencialmente accesible en repositorios de acceso abierto. Conclusiones: En ambos casos es alta la viabilidad de proveer acceso abierto a la producción científica en medicina a través del auto-archivo en repositorios. Se identifican las principales revistas y editoriales y se determinan los tipos de versión del artículo que se puede auto-archivar ofreciendo información que facilita el trabajo de los gestores de los repositorios

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las Empresas de Inserción en España no son una realidad reciente (Asensio, Miedes, 2001), pero sí lo es su regulación y consolidación (la ley nacional es de 2007). Estas empresas desarrollan un modelo de integración laboral de personas alejadas del empleo, en situación real de producción para el mercado, mediante el diseño de itinerarios individualizados de incorporación socio-laboral (Carmona, 2008). La Asociación de Empresas de Inserción de Andalucía (EIdA) es un actor territorial que agrupa desde 1998 a las empresas pioneras de este sector en esta región española (en 2011 eran 27 empresas con una media de 284 trabajadores anuales). Para la promoción de este tipo de experiencias EIdA emplea desde sus orígenes metodologías de Investigación-acción participativa (IAP), con el apoyo científico-técnico del Observatorio Local de Empleo de la Universidad de Huelva. Ambas entidades crearon el año 2000 el Observatorio Andaluz de Empresas de Inserción (OAEI) (Miedes, et. alia 2005). La comunicación, a modo de ilustración de las potencialidades del método Catalyse en el desarrollo de la inteligencia territorial (Girardot, 2008), presenta los resultados de un proceso de IAP, en el marco del OAEI, en el que cinco empresas de inserción se plantearon como objetivo analizar de manera conjunta los perfiles de todas las personas trabajadoras en las diferentes entidades, identificar sus principales necesidades de partida y evaluar sus progresos en términos de inserción socio-laboral. El fin último era poner en común la evaluación de las diferentes metodologías de itinerarios de inserción personalizados con el fin de mejorar la eficacia y eficiencia de estos procesos. El debate de los resultados arrojó consideraciones de las EI tanto de carácter aplicado (posibles líneas de actuación) como más globales de defensa del rol socioeconómico de las EI en el territorio. El proceso permitió establecer y afianzar criterios comunes y metodologías unificadas dirigidas a reforzar el sector, tanto interna, como externamente de cara a sus principales stakeholders públicos y privados. El proyecto permitió así al reforzamiento de lascapacidades de los actores involucrados, principal objetivo de los métodos y herramientas de la inteligencia territorial (Miedes, 2009) y puso de manifiesto las principales ventajas del uso de la metodología Catalyse cuando se dan los condicionantes mínimos para su aplicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Algunas de las novelas de la saga Carvalho de Manuel Vázquez Montalbán (Asesinato en el comité central, Los Mares del Sur, El Balneario, Milenio) son particularmente interesantes para rastrear las tensiones que en las sociedades contemporáneas se registran en torno a la memoria y el olvido: ¿qué recordar y qué olvidar? parecen ser preguntas decisivas para el trazado de proyectos políticos y culturales que permitan a unos y otros convivir en la posmodernidad. En estos textos, la recuperación de la memoria aparece ligada en numerosas ocasiones a experiencias de viajes y exilio. Los viajeros de Vázquez Montalbán nunca son turistas, fieles a la consigna de Bowles, sólo saben dónde y cuándo empieza su viaje, nunca cuando termina. En Milenio esta conjunción viaje-memoria es el eje del relato, los personajes recorren el mundo y se encuentran en diferentes escenarios que son delineados con unos pocos trazos necesariamente gruesos, entre ellos los referentes a la historia y el pasado local. Lejos de conformar una postal remota, estas referencias configuran una red de factores que condicionan las vidas de quienes los transitan porque los recuerdos están enraizados en un lugar, y el espacio se convierte en tiempo y memoria cristalizados. En la novela todos los personajes están en movimiento, pasajeros en tránsito, unos y otros ofrecen sus propios relatos acerca de los hechos del pasado y el presente. Milenio resulta así una especie de balance (definitivamente el último de Vázquez Montalbán) de la memoria y la historia del mundo globalizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el marco del proceso de capacitación e innovación pedagógica centrado en la Enseñanza para la comprensión (EpC) que se está implementando en el Colegio Nacional Rafael Hernández, se llevó a cabo una propuesta para la enseñanza de la Biología en tercer año. El enfoque tuvo en cuenta el modelo de EpC y la perspectiva sistémica Los contenidos seleccionados apuntaron a integrar los sistemas digestivo, respiratorio, circulatorio y excretor y el proceso de homeostasis. El eje central fue el sistema circulatorio. El tópico generativo: "El sistema circulatorio un delivery en mi cuerpo", se construyó suponiendo que una analogía de la vida cotidiana podría representar una forma clara y motivadora de pensar los aspectos funcionales del sistema circulatorio y su conexión con los otros sistemas del cuerpo estudiados en la asignatura. El hilo conductor orientó y ayudó a expresar el sentido de lo que se quería enseñar: "Los alumnos comprenderán el cuerpo humano como una Unidad constituida por una serie de sistemas en continua interacción.". En torno a éste eje se plantearon Metas de Comprensión: aquellos conceptos, procesos, habilidades que esperábamos que los estudiantes comprendieran. Los alumnos se mostraron muy interesados y en la clase lograron responder a múltiples interrogantes que promovieron la apropiación significativa de los contenidos. Utilizando un lenguaje cotidiano, se fue introduciendo el vocabulario específico, para favorecer el acceso a los nuevos contenidos .En un muy buen clima de trabajo se lograron las metas propuestas. La secuencia didáctica aplicada fue evaluada favorablemente por especialistas externos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los resultados obtenidos del seguimiento efectuado durante el año 2006 a alumnos del primer año de las carreras del profesorado y traductorado de inglés de la Facultad de Humanidades y Ciencias de la Educación (F.H.C.E.) de la Universidad Nacional de La Plata (U.N.L.P.) en el uso de una plataforma virtual de enseñanza-aprendizaje. La motivación principal en la implementación de una plataforma virtual surge de la necesidad de poder brindar a los alumnos de Lengua Inglesa 1 más horas de práctica del idioma y de poder guiarlos en su primer año de estudios. Si bien la experiencia realizada en los prácticos de la cátedra de Lengua Inglesa 1 por parte de los alumnos en el uso de una plataforma virtual no fue muy extensa en tiempo, sí fue enriquecedora en datos que nos proporcionaron los usuarios con respecto a la factibilidad de poder implementar la modalidad 'blended learning' en futuros cursos. Este trabajo resume los datos y presenta algunas conclusiones preliminares

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objeto general del proyecto es evaluar y definir una alternativa óptima de recuperación del espacio degradado por la actividad de extracción de áridos, cumpliendo con lo dispuesto en el Real Decreto 975/2009, de 12 de junio, sobre gestión de los residuos de las industrias extractivas y de protección y rehabilitación del espacio afectado por actividades mineras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La catenaria rígida presenta algunas características que la hacen especialmente apropiada para su montaje en líneas de metro, si bien el aumento del límite de velocidad de los vehículos destinados a las líneas modernas exige un diseño más eficiente para estos sistemas. En este trabajo se ha analizado el comportamiento dinámico de este tipo de sistemas de captación, a fin de diseñar un nuevo carril conductor con un comportamiento dinámico superior al de los ya existentes. Esto implica la posibilidad de aumentar la velocidad de circulación o la distancia entre soportes, con el consiguiente ahorro del coste de instalación. A tal fin, se ha modelizado un sistema pantógrafo-catenaria real, empleando técnicas avanzadas de modelado y simulación. Se ha realizado un estudio de sensibilidad, para analizar la influencia de cada variable de diseño sobre el comportamiento dinámico del conjunto, y se ha diseñado un carril conductor con mejores prestaciones que el actual.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La instalación de Infraestructuras Comunes de Telecomunicación (IICCTT) en el interior de las edificaciones para el acceso a los servicios de telecomunicación facilitó la incorporación a las viviendas de las nuevas tecnologías de forma económica y transparente para los usuarios. Actualmente, todos los edificios de nueva construcción deben presentar un proyecto ICT firmado por un Ingeniero Técnico de Telecomunicación de la especialidad correspondiente o un Ingeniero de Telecomunicación. La legislación que las regula afecta a todo tipo de viviendas con independencia del poder adquisitivo del comprador, y contribuye de manera decisiva a que disminuyan a corto y medio plazo las desigualdades sociales en lo relativo al acceso a servicios de telecomunicación tales como telefonía, Internet, telecomunicación por cable, radiodifusión sonora y televisión analógica, digital, terrenal o por satélite, etc.. Desde 1997, el Colegio Oficial de Ingenieros de Telecomunicación junto con otras organizaciones públicas y privadas ha participado en la elaboración de la normativa aplicable a las Infraestructuras Comunes de Telecomunicación, dando lugar al actual decreto, el Real Decreto 346/2011, de 11 de Marzo. El propósito general de este proyecto es diseñar una red Wi-Fi a partir de las canalizaciones e instalaciones del proyecto ICT de un conjunto de viviendas unifamiliares, para que todas ellas dispongan de conexión a internet de forma inalámbrica. Para llevar a cabo este diseño, se ha realizado un estudio de las características del estándar IEEE 802.11, conocido como Wi-Fi, analizando las posibilidades de comunicación inalámbrica que ofrece, así como las limitaciones que presenta en la actualidad. Se ha analizado el proyecto ICT del conjunto de viviendas, estudiando la viabilidad de utilizar sus instalaciones para implementar la red Wi-Fi, añadiendo tanto las canalizaciones como los dispositivos comerciales necesarios para llevar a cabo dicha implementación. Además, se ha estudiado la posibilidad de integrar la red Wi-Fi utilizando el cableado de televisión de la propia ICT. Por último, se ha estudiado la gran importancia que al Hogar Digital se da en el Real Decreto 346/2011, de 11 de marzo, por el que se aprueba el Reglamento regulador de las Infraestructuras Comunes de Telecomunicaciones para el acceso a los servicios de telecomunicación en el interior de las edificaciones, presentando los aspectos fundamentales que se persiguen con la domotización de la vivienda como mejora de vida de sus habitantes. Abstract The installation of Telecommunications Common Infrastructures (TCIs, in Spanish Infraestructuras Comunes de Telecomunicación –IICCTT-) in the buildings, in order to gain access to telecommunications services, facilitated the incorporation into the houses of new technologies in an economical and transparent way for users. Nowadays, every new construction building must have a TCI project signed by a Telecommunications Engineer or a Technical Telecommunications Engineer with the appropriate specialization. The legislation that regulates TCIs affects every kind of houses, independently of the buyer´s purchasing power, and contributes decisively to decrease in short and medium terms the social inequalities concerning the access to the telecommunication services, such as telephony, Internet, wired telecommunications, audible broadcasting and digital, analogical, land, satellite television, etc.. Since 1997, the Telecommunications Engineer Official College, together with other public and private organizations, has been elaborating the regulations for the TCIs, giving rise to the current decree, the Royal Decree 346/2011, of 11th of March. The general purpose of this project is to design a Wi-Fi network based on the canalizations and installations of the TCI project of a housing development, in such a way that every house is provided with a wireless connection to the Internet. In order to carry out this design, the characteristics of the standard IEEE 802.11, known as Wi-Fi, have been studied, analyzing the wireless-communication possibilities that it offers, as well as the constraints that it presents currently. The TCI project has been analyzed, studying the feasibility of using its installations to implement the Wi-Fi network, adding the canalizations and commercial devices required to execute the aforementioned implementation. Besides, the possibility of integrating the Wi-Fi network using the television wires of the TCI project has been investigated. Finally, it has been studied the great importance that has been given to Digital Home in the Royal Decree 346/2011, of 11th of March, that approves the regulatory Regulations of Telecommunications Common Infrastructures for the access to telecommunications services inside the buildings, presenting the essential aspects that are pursued with the house domotization as a way to improve the quality of life of its inhabitants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.