983 resultados para Dynamic Web
Resumo:
Most of today’s systems, especially when related to the Web or to multi-agent systems, are not standalone or independent, but are part of a greater ecosystem, where they need to interact with other entities, react to complex changes in the environment, and act both over its own knowledge base and on the external environment itself. Moreover, these systems are clearly not static, but are constantly evolving due to the execution of self updates or external actions. Whenever actions and updates are possible, the need to ensure properties regarding the outcome of performing such actions emerges. Originally purposed in the context of databases, transactions solve this problem by guaranteeing atomicity, consistency, isolation and durability of a special set of actions. However, current transaction solutions fail to guarantee such properties in dynamic environments, since they cannot combine transaction execution with reactive features, or with the execution of actions over domains that the system does not completely control (thus making rolling back a non-viable proposition). In this thesis, we investigate what and how transaction properties can be ensured over these dynamic environments. To achieve this goal, we provide logic-based solutions, based on Transaction Logic, to precisely model and execute transactions in such environments, and where knowledge bases can be defined by arbitrary logic theories.
Resumo:
The MAP-i Doctoral Program of the Universities of Minho, Aveiro and Porto
Resumo:
Aquest projecte té com a objectiu el desenvolupament d'un site web amb la possibilitat que la gestió del seu contingut fos administrat per persones alienes a la implementació de la web. Aquesta fita ha estat duta a terme en una web d'una entitat esportiva, la Unió Esportiva Sant Cugat, des d'on durant 2 anys i mig s'ha gestionat la informació i comunicació a través de la xarxa amb aquest mitjà. L'estructuració del projecte ha estat totalment modular, per d'aquesta manera facilitar el dinamisme de canvis de possibles continguts que es poden incorporar a la web de manera molt ràpida i senzilla.
Resumo:
Es proposa una web, que arreplegui tots els treballs i que al mateix temps els agrupi, que es puguin fer cerques fàcilment, haurà de ser dinàmica i agradable d'utilitzar.
Resumo:
Hepatitis C virus (HCV) replicates its genome in a membrane-associated replication complex (RC). Specific membrane alterations, designated membranous webs, represent predominant sites of HCV RNA replication. The principles governing HCV RC and membranous web formation are poorly understood. Here, we used replicons harboring a green fluorescent protein (GFP) insertion in nonstructural protein 5A (NS5A) to study HCV RCs in live cells. Two distinct patterns of NS5A-GFP were observed. (i) Large structures, representing membranous webs, showed restricted motility, were stable over many hours, were partitioned among daughter cells during cell division, and displayed a static internal architecture without detectable exchange of NS5A-GFP. (ii) In contrast, small structures, presumably representing small RCs, showed fast, saltatory movements over long distances. Both populations were associated with endoplasmic reticulum (ER) tubules, but only small RCs showed ER-independent, microtubule (MT)-dependent transport. We suggest that this MT-dependent transport sustains two distinct RC populations, which are both required during the HCV life cycle.
Resumo:
El principal objectiu del projecte era desenvolupar millores conceptuals i metodològiques que permetessin una millor predicció dels canvis en la distribució de les espècies (a una escala de paisatge) derivats de canvis ambientals en un context dominat per pertorbacions. En un primer estudi, vàrem comparar l'eficàcia de diferents models dinàmics per a predir la distribució de l'hortolà (Emberiza hortulana). Els nostres resultats indiquen que un model híbrid que combini canvis en la qualitat de l'hàbitat, derivats de canvis en el paisatge, amb un model poblacional espacialment explícit és una aproximació adequada per abordar canvis en la distribució d'espècies en contextos de dinàmica ambiental elevada i una capacitat de dispersió limitada de l'espècie objectiu. En un segon estudi abordarem la calibració mitjançant dades de seguiment de models de distribució dinàmics per a 12 espècies amb preferència per hàbitats oberts. Entre les conclusions extretes destaquem: (1) la necessitat de que les dades de seguiment abarquin aquelles àrees on es produeixen els canvis de qualitat; (2) el biaix que es produeix en la estimació dels paràmetres del model d'ocupació quan la hipòtesi de canvi de paisatge o el model de qualitat d'hàbitat són incorrectes. En el darrer treball estudiarem el possible impacte en 67 espècies d’ocells de diferents règims d’incendis, definits a partir de combinacions de nivells de canvi climàtic (portant a un augment esperat de la mida i freqüència d’incendis forestals), i eficiència d’extinció per part dels bombers. Segons els resultats dels nostres models, la combinació de factors antropogènics del regim d’incendis, tals com l’abandonament rural i l’extinció, poden ser més determinants per als canvis de distribució que els efectes derivats del canvi climàtic. Els productes generats inclouen tres publicacions científiques, una pàgina web amb resultats del projecte i una llibreria per a l'entorn estadístic R.
Resumo:
El proyecto consta de una aplicación web destinada a generar cuadros de mandos para distintos clientes de una manera ágil y dinámica reduciendo así los tiempos de implementación de una herramienta de estas características. Dicha aplicación será desarrollada bajo .NET para el lado del servidor y jQuery & google Maps API para el lado cliente, por lo que hace a los informes y la base de datos todo estará implementado con Microsoft SQL Server 2008 R2.
Resumo:
En la actualidad estamos sufriendo una situación de crisis económica de dimensiones desproporcionadas e inusuales, la cual está obligando a todas las empresas a globalizar en mayor medida el ámbito de actuación de sus negocios, por lo que muchas empresas que trabajaban exclusivamente en el ámbito local o nacional han tenido que expandirse hacia el exterior. Este hecho, añadido a la fortísima competencia existente en el mercado, obligará a todas estas empresas a tener que controlar en mayor medida la actividad productiva, y a hacerlo utilizando tecnologías que faciliten el flujo de la información dentro de la empresa, hagan que la distancia no sea un problema para la transmisión de esa información, y con las que todos los usuarios manejen los mismos datos. El sector de la construcción es uno de los más castigados por la citada crisis, y probablemente uno de los más retrasados en lo que respecta a utilización de Tecnologías de la Información y la Comunicación. El objetivo principal de este trabajo es el diseño e implementación de una web dinámica como herramienta para medir la eficiencia en el control de la actividad productiva de una empresa constructora. La manera de medir esta eficiencia será mediante la comparación mensual de los costes previstos para las diferentes obras que deba ejecutar la empresa (los cuales podemos llamar estándar) y los que se vayan produciendo realmente. La herramienta diseñada podría ir aumentando su utilidad si, añadiendo módulos mediante la ampliación de la base de datos y diseñando las pertinentes nuevas páginas web para el sitio, se usa también para otros menesteres además del control de la actividad productiva por comparación entre costes previstos y reales. Es decir, que se podría llegar a gestionar la información de todas las actividades de la empresa (compras, recursos humanos, contabilidad, gestión de calidad, etc.). Por lo tanto, una web dinámica como la expuesta en el trabajo podría servir como semilla para el desarrollo de un ERP (Enterprise Resource Planning).
Resumo:
Diplomityön tavoitteena oli tutkia miten ilman turbulenttisuus vaikuttaa tasaisesti liikkuvan rainan tilaan. Yhtenä sovelluskohteena teollisuudessa voidaan mainita esimerkiksi leiju-kuivain. Tiedetään, että konenopeuksien kasvu ja siitä johtuva ilmavirran nopeuden kasvu aiheuttaa voimavaikutuksia rainaan ja voi aiheuttaa lepatusta. Lepatus johtaa dynaamiseen epästabiilisuuteen, joka voidaan havaita, kun lineaarinen systeemi tulee epävakaaksi ja joh-taa epälineaariseen, rajoitettuun värähtelyyn. Lepatus huonontaa tuotteiden laatua ja voi johtaa ratakatkoihin. Työssä on esitetty tietoa ilman ja rainan vuorovaikutuksesta, jota hyödyntämällä voidaan kehittää yksinkertaistettu malli, jonka avulla liikkuvaa rainaa voidaan simuloida kuivaimes-sa. Kaasufaasin virtausyhtälöt on ratkaistu eri turbulenttimalleja käyttäen. Myös viskoelas-tisen rainan muodonmuutosta on tarkasteltu. Koska rainalle ei ole kirjallisuudesta saatavilla tarkkoja fysikaalisia ja mekaanisia arvoja, näitä ominaisuuksia testattiin eri arvoilla, jotta rainan käyttäytymistä jännityksen alaisena voidaan tarkastella. Näiden ominaisuuksien tun-teminen on ensiarvoisen tärkeää määritettäessä rainan aeroviskoelastista käyttäytymistä. Virtaussimulointi on kallista ja aikaa vievää. Tämä tarkoittaa uusien tutkimusmenetelmien omaksumista. Tässä työssä vaihtoehtoisena lähestymistapana on esitetty yksinkertaistettu malli, joka sisältää ilman ja rainan vuorovaikutusta kuvaavat ominaisuudet. Mallin avulla saadaan tietoa epälineaarisuuden ja turbulenssin vaikutuksesta sekä monimutkaisesta yh-teydestä stabiilisuuden ja ulkoisesti aikaansaadun värähtelyn sekä itse aiheutetun värähtelyn välillä. Työn lopussa on esitetty havainnollinen esimerkki, jolla voidaan kuvata olosuhteita, jossa rainan tasainen liike muuttuu epävakaaksi. Kun turbulenttisuudesta johtuva painevaih-telu ylittää tietyn rajan, rainan värähtely kasvaa muuttuen satunnaisesta järjestäytyneeksi. Saaduttulokset osoittavat, että turbulenttisuudella on suuri vaikutus eikä sitä voi jättää huomioimatta. Myös rainan viskoelastiset ominaisuudet tulee huomioida, jotta rainan käyt-täytymistä voidaan kuvata tarkasti.
Resumo:
Tutkimuksen tavoite oli selvittää yrityksen web toiminnan rakentamisen vaiheita sekä menestyksen mittaamista. Rakennusprosessia tutkittiin viisiportaisen askelmallin avulla. Mallin askeleet ovat; arviointi, strategian muotoilu, suunnitelma, pohjapiirros ja toteutus. Arviointi- ja toteutusvaiheiden täydentämiseksi sekä erityisesti myös internet toiminnan onnistumisen mittaamisen avuksi internet toiminnan hyödyt (CRM,kommunikointi-, myynti-, ja jakelukanava hyödyt markkinoinnin kannalta) käsiteltiin. Toiminnan menestyksen arvioinnin avuksi esiteltiin myös porrasmalli internet toimintaan. Porrasmalli määrittelee kauppakulissi-, dynaaminen-, transaktio- ja e-businessportaat. Tutkimuksessa löydettiin menestystekijöitä internet toimintojen menestykselle. Nämä tekijät ovat laadukas sisältö, kiinnostavuus, viihdyttävyys, informatiivisuus, ajankohtaisuus, personoitavuus, luottamus, interaktiivisuus, käytettävyys, kätevyys, lojaalisuus, suoriutuminen, responssiivisuus ja käyttäjätiedon kerääminen. Mittarit jaettiin tutkimuksessa aktiivisuus-, käyttäytymis- ja muunnosmittareihin. Lisäksi muita mittareita ja menestysindikaattoreita esiteltiin. Nämä menestyksen elementit ja mittarit koottiin yhteen uudessa internet toimintojen menestyksenarviointimallissa. Tutkielman empiirisessä osuudessa,esitettyjä teorioita peilattiin ABB:n (ABB:n sisällä erityisesti ABB Stotz-Kontakt) web toimintaan. Apuna olivat dokumenttianalyysi sekä haastattelut. Empiirinen osa havainnollisti teoriat käytännössä ja toi ilmi mahdollisuuden teorioiden laajentamiseen. Internet toimintojen rakentamismallia voidaan käyttää myös web toimintojen kehittämiseen ja porrasmalli sopii myös nykyisten internet toimintojen arvioimiseen. Mittareiden soveltaminen käytännössä toi kuitenkin ilmi tarpeen niiden kehittämiseen ja aiheen lisätutkimukseen. Niiden tulisi olla myös aiempaatiiviimmin liitetty kokonaisvaltaisen liiketoiminnan menestyksen mittaamiseen.
Resumo:
This thesis presents different aspects of Web Services usage in Symbian OS that is an operating system for handheld devices. The practical part of the work was to develop Symbian OS client application for Web Services. It produced four reusable software components. XML enables platform and programming language independent services. Web Services use XML to create standardized message oriented services that are accessed through HTTP. Web Services are moving towards dynamic B2B interaction. Web Services increases the amount of transferred data, which is not desirable in mobile networks where transfer speed is slower than in the traditional networks. However the modern mobile networks are able to transfer the extra payload with reasonable time. XML processing is not a big problem. Web Services can be accessed from the modern mobile devices and they can cut down the development costs.
Resumo:
Työssä luodaan yleiskuva Web-palvelut -tekniikasta ja toteutetaan sen avulla kahden tietojärjestelmän integrointi. Web-palvelut on uusi toteutustekniikasta riippumaton lähestymistapa tietojärjestelmien integrointiin, organisaatioiden väliseen sähköiseen liiketoimintaan ja sovelluslogiikan hajautukseen. Työssä keskitytään Web-palveluiden alemman tason perusteknologioiden (SOAP, WSDL ja UDDI) tarkasteluun. Työn teoriaosassa määritellään Web-palvelut ja kuvataan Web-palveluiden arkkitehtuuri sekä arkkitehtuurin toteuttavat standardit. Soveltavassa osassa toteutetaan kahden tietojärjestelmän integrointi Web-palveluiden avulla. Web-palveluiden käyttöä ja luontia helpottamaan toteutettiin yleiskäyttöinen komponentti, jota voidaan käyttää myöhemmin muissa vastaavissa projekteissa. Työssä tarkastellaan Web-palveluiden käytettävyyttä organisaation tietojärjestelmien sisäisessä integroinnissa ja sovelluslogiikan hajautuksessa. Tarkastelun tuloksena todetaan, että Web-palvelut on tällä hetkellä keskeneräinen tekniikka ja soveltuu toistaiseksi vain yksinkertaisten ongelmien ratkaisemiseen. Tulevaisuudessa Web-palveluilla on kuitenkin edellytykset yleistyä sekä integroinnin että sovelluslogiikan hajautuksen perustekniikkana.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Highly dynamic systems, often considered as resilient systems, are characterised by abiotic and biotic processes under continuous and strong changes in space and time. Because of this variability, the detection of overlapping anthropogenic stress is challenging. Coastal areas harbour dynamic ecosystems in the form of open sandy beaches, which cover the vast majority of the world’s ice-free coastline. These ecosystems are currently threatened by increasing human-induced pressure, among which mass-development of opportunistic macroalgae (mainly composed of Chlorophyta, so called green tides), resulting from the eutrophication of coastal waters. The ecological impact of opportunistic macroalgal blooms (green tides, and blooms formed by other opportunistic taxa), has long been evaluated within sheltered and non-tidal ecosystems. Little is known, however, on how more dynamic ecosystems, such as open macrotidal sandy beaches, respond to such stress. This thesis assesses the effects of anthropogenic stress on the structure and the functioning of highly dynamic ecosystems using sandy beaches impacted by green tides as a study case. The thesis is based on four field studies, which analyse natural sandy sediment benthic community dynamics over several temporal (from month to multi-year) and spatial (from local to regional) scales. In this thesis, I report long-lasting responses of sandy beach benthic invertebrate communities to green tides, across thousands of kilometres and over seven years; and highlight more pronounced responses of zoobenthos living in exposed sandy beaches compared to semi-exposed sands. Within exposed sandy sediments, and across a vertical scale (from inshore to nearshore sandy habitats), I also demonstrate that the effects of the presence of algal mats on intertidal benthic invertebrate communities is more pronounced than that on subtidal benthic invertebrate assemblages, but also than on flatfish communities. Focussing on small-scale variations in the most affected faunal group (i.e. benthic invertebrates living at low shore), this thesis reveals a decrease in overall beta-diversity along a eutrophication-gradient manifested in the form of green tides, as well as the increasing importance of biological variables in explaining ecological variability of sandy beach macrobenthic assemblages along the same gradient. To illustrate the processes associated with the structural shifts observed where green tides occurred, I investigated the effects of high biomasses of opportunistic macroalgae (Ulva spp.) on the trophic structure and functioning of sandy beaches. This work reveals a progressive simplification of sandy beach food web structure and a modification of energy pathways over time, through direct and indirect effects of Ulva mats on several trophic levels. Through this thesis I demonstrate that highly dynamic systems respond differently (e.g. shift in δ13C, not in δ15N) and more subtly (e.g. no mass-mortality in benthos was found) to anthropogenic stress compared to what has been previously shown within more sheltered and non-tidal systems. Obtaining these results would not have been possible without the approach used through this work; I thus present a framework coupling field investigations with analytical approaches to describe shifts in highly variable ecosystems under human-induced stress.
Resumo:
L’observation de l’exécution d’applications JavaScript est habituellement réalisée en instrumentant une machine virtuelle (MV) industrielle ou en effectuant une traduction source-à-source ad hoc et complexe. Ce mémoire présente une alternative basée sur la superposition de machines virtuelles. Notre approche consiste à faire une traduction source-à-source d’un programme pendant son exécution pour exposer ses opérations de bas niveau au travers d’un modèle objet flexible. Ces opérations de bas niveau peuvent ensuite être redéfinies pendant l’exécution pour pouvoir en faire l’observation. Pour limiter la pénalité en performance introduite, notre approche exploite les opérations rapides originales de la MV sous-jacente, lorsque cela est possible, et applique les techniques de compilation à-la-volée dans la MV superposée. Notre implémentation, Photon, est en moyenne 19% plus rapide qu’un interprète moderne, et entre 19× et 56× plus lente en moyenne que les compilateurs à-la-volée utilisés dans les navigateurs web populaires. Ce mémoire montre donc que la superposition de machines virtuelles est une technique alternative compétitive à la modification d’un interprète moderne pour JavaScript lorsqu’appliqué à l’observation à l’exécution des opérations sur les objets et des appels de fonction.