890 resultados para Web sites design
Resumo:
El artículo analiza la figura del prosumidor desde los estudios visuales a partir de la combinación de la teoría de los actos de habla y los nuevos medios. El objetivo es evaluar si la distinción entre productores y consumidores, estrategias y tácticas de Michel de Certeau continúa siendo operativa en las interfaces gráficas de la cultura global de la información de Scott Lash. Para ello distingue dos tipos de performatividad de los actos de habla: la performatividad top-down del software, y la bottom-up de los juegos del lenguaje y las formas de vida. Estos tipos se aplican al análisis del discurso de los eslóganes que aparecen en los sitios web de las iniciativas “open” y de economía colaborativa, ya que las primeras están dedicadas a la producción de bienes inmateriales y las segundas a la producción de bienes materiales. El desarrollo muestra cómo los dos tipos de performatividad transforman el análisis textual de los estudios literarios y cinematográficos en una metodología capaz de investigar acciones materiales, humanas y no humanas. Las conclusiones describen el surgimiento de nuevas convenciones narrativas de poder y control ajenas a la ficción que apuntan a una “DIY society”.
Resumo:
Gracias al crecimiento, expansión y popularización de la World Wide Web, su desarrollo tecnológico tiene una creciente importancia en la sociedad. La simbiosis que protagonizan estos dos entornos ha propiciado una mayor influencia social en las innovaciones de la plataforma y un enfoque mucho más práctico. Nuestro objetivo en este artículo es describir, caracterizar y analizar el surgimiento y difusión del nuevo estándar de hipertexto que rige la Web; HTML5. Al mismo tiempo exploramos este proceso a la luz de varias teorías que aúnan tecnología y sociedad. Dedicamos especial atención a los usuarios de la World Wide Web y al uso genérico que realizan de los Medios Sociales o "Social Media". Sugerimos que el desarrollo de los estándares web está influenciado por el uso cotidiano de este nuevo tipo de tecnologías y aplicaciones.
Resumo:
Abstract This seminar consists of two very different research reports by PhD students in WAIS. Hypertext Engineering, Fettling or Tinkering (Mark Anderson): Contributors to a public hypertext such as Wikipedia do not necessarily record their maintenance activities, but some specific hypertext features - such transclusion - could indicate deliberate editing with a mind to the hypertext’s long-term use. The MediaWiki software used to create Wikipedia supports transclusion, a deliberately hypertextual form of content creation which aids long terms consistency. This discusses the evidence of the use of hypertext transclusion in Wikipedia, and its implications for the coherence and stability of Wikipedia. Designing a Public Intervention - Towards a Sociotechnical Approach to Web Governance (Faranak Hardcastle): In this talk I introduce a critical and speculative design for a socio-technical intervention -called TATE (Transparency and Accountability Tracking Extension)- that aims to enhance transparency and accountability in Online Behavioural Tracking and Advertising mechanisms and practices.
Resumo:
This paper carries the rather weighty title of "Evolution of Design Practice at the Iowa State Highway Commission for the Determination of Peak Discharges at .Bridges and Culverts." Hopefully, this evolving process will lead to a more precise definition of a peak rate of runoff for a selected recurrence interval at a particular site. In this paper the author will relate where the Highway Commission has been, is now, and will be going in this art of hydrology. He will then offer some examples at a few sites in Iowa to illustrate the use of the various methods. Finally, he will look ahead to some of the pitfalls still lying in wait for us.
Resumo:
Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.
Resumo:
Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.
Resumo:
Heterogeneity has to be taken into account when integrating a set of existing information sources into a distributed information system that are nowadays often based on Service- Oriented Architectures (SOA). This is also particularly applicable to distributed services such as event monitoring, which are useful in the context of Event Driven Architectures (EDA) and Complex Event Processing (CEP). Web services deal with this heterogeneity at a technical level, also providing little support for event processing. Our central thesis is that such a fully generic solution cannot provide complete support for event monitoring; instead, source specific semantics such as certain event types or support for certain event monitoring techniques have to be taken into account. Our core result is the design of a configurable event monitoring (Web) service that allows us to trade genericity for the exploitation of source specific characteristics. It thus delivers results for the areas of SOA, Web services, CEP and EDA.
Resumo:
The business system known as Pyramid does today not provide its user with a reasonable system regarding case management for support issues. The current system in place requires the customer to contact its provider via telephone to register new cases. In addition to this, current system doesn’t include any way for the user to view any of their current cases without contacting the provider.A solution to this issue is to migrate the current case management system from a telephone contact to a web based platform, where customers could easier access their current cases, but also directly through the website create new cases. This new system would reduce the time required to manually manage each individual case, for both customer and provider, resulting in an overall reduction in cost for both parties.The result is a system divided into two different sections, the first one is an API created in Pyramid that acts as a web service, and the second one a website which customers can connect to. The website will allow users to overview their current cases, but also the option to create new cases directly through the site. All the information used to the website is obtained through the web service inside Pyramid. Analyzing the final design of the system, the developers where able to conclude both positive and negative aspects of the systems’ final design. If the platform chosen was the optimal choice or not, and also what can be include if the system is further developed, will be discussed.The development process and the method used during development will also be analyzed and discussed, what positive and negative aspects that where encountered. In addition to this the cause and effect of a development team smaller than the suggested size will also be analyzed. Lastly an analysis of actions that could’ve been made in order to prevent certain issues from occurring will.
Resumo:
Relatório de Estágio para a obtenção do grau de Mestre na área de Educação e Comunicação Multimédia
Resumo:
Considerable interest in renewable energy has increased in recent years due to the concerns raised over the environmental impact of conventional energy sources and their price volatility. In particular, wind power has enjoyed a dramatic global growth in installed capacity over the past few decades. Nowadays, the advancement of wind turbine industry represents a challenge for several engineering areas, including materials science, computer science, aerodynamics, analytical design and analysis methods, testing and monitoring, and power electronics. In particular, the technological improvement of wind turbines is currently tied to the use of advanced design methodologies, allowing the designers to develop new and more efficient design concepts. Integrating mathematical optimization techniques into the multidisciplinary design of wind turbines constitutes a promising way to enhance the profitability of these devices. In the literature, wind turbine design optimization is typically performed deterministically. Deterministic optimizations do not consider any degree of randomness affecting the inputs of the system under consideration, and result, therefore, in an unique set of outputs. However, given the stochastic nature of the wind and the uncertainties associated, for instance, with wind turbine operating conditions or geometric tolerances, deterministically optimized designs may be inefficient. Therefore, one of the ways to further improve the design of modern wind turbines is to take into account the aforementioned sources of uncertainty in the optimization process, achieving robust configurations with minimal performance sensitivity to factors causing variability. The research work presented in this thesis deals with the development of a novel integrated multidisciplinary design framework for the robust aeroservoelastic design optimization of multi-megawatt horizontal axis wind turbine (HAWT) rotors, accounting for the stochastic variability related to the input variables. The design system is based on a multidisciplinary analysis module integrating several simulations tools needed to characterize the aeroservoelastic behavior of wind turbines, and determine their economical performance by means of the levelized cost of energy (LCOE). The reported design framework is portable and modular in that any of its analysis modules can be replaced with counterparts of user-selected fidelity. The presented technology is applied to the design of a 5-MW HAWT rotor to be used at sites of wind power density class from 3 to 7, where the mean wind speed at 50 m above the ground ranges from 6.4 to 11.9 m/s. Assuming the mean wind speed to vary stochastically in such range, the rotor design is optimized by minimizing the mean and standard deviation of the LCOE. Airfoil shapes, spanwise distributions of blade chord and twist, internal structural layup and rotor speed are optimized concurrently, subject to an extensive set of structural and aeroelastic constraints. The effectiveness of the multidisciplinary and robust design framework is demonstrated by showing that the probabilistically designed turbine achieves more favorable probabilistic performance than those of the initial baseline turbine and a turbine designed deterministically.
Resumo:
The research investigates the feasibility of using web-based project management systems for dredging. To achieve this objective the research assessed both the positive and negative aspects of using web-based technology for the management of dredging projects. Information gained from literature review and prior investigations of dredging projects revealed that project performance, social, political, technical, and business aspects of the organization were important factors in deciding to use web-based systems for the management of dredging projects. These factors were used to develop the research assumptions. An exploratory case study methodology was used to gather the empirical evidence and perform the analysis. An operational prototype of the system was developed to help evaluate developmental and functional requirements, as well as the influence on performance, and on the organization. The evidence gathered from three case study projects, and from a survey of 31 experts, were used to validate the assumptions. Baselines, representing the assumptions, were created as a reference to assess the responses and qualitative measures. The deviation of the responses was used to evaluate for the analysis. Finally, the conclusions were assessed by validating the assumptions with the evidence, derived from the analysis. The research findings are as follows: 1. The system would help improve project performance. 2. Resistance to implementation may be experienced if the system is implemented. Therefore, resistance to implementation needs to be investigated further and more R&D work is needed in order to advance to the final design and implementation. 3. System may be divided into standalone modules in order to simplify the system and facilitate incremental changes. 4. The QA/QC conceptual approach used by this research needs to be redefined during future R&D to satisfy both owners and contractors. Yin (2009) Case Study Research Design and Methods was used to develop the research approach, design, data collection, and analysis. Markus (1983) Resistance Theory was used during the assumptions definition to predict potential problems to the implementation of web-based project management systems for the dredging industry. Keen (1981) incremental changes and facilitative approach tactics were used as basis to classify solutions, and how to overcome resistance to implementation of the web-based project management system. Davis (1989) Technology Acceptance Model (TAM) was used to assess the solutions needed to overcome the resistances to the implementation of web-base management systems for dredging projects.
Resumo:
La construction des biosystèmes d’oxydation passive du méthane (BOPM) est une option économique et durable pour réduire les émissions de méthane des sites d’enfouissement de déchets et des effets subséquents du réchauffement climatique. Les BOPM sont constitués de deux couches principales: la couche d'oxydation du méthane (MOL) et la couche de distribution du gaz (GDL). L'oxydation du méthane se produit dans la MOL par les réactions biochimiques des bactéries méthanotrophes, et la GDL est construite sous la MOL pour intercepter et distribuer les émissions fugitives de biogaz à la base de la MOL. Fondamentalement, l'efficacité d'un BOPM est définie en fonction de l'efficacité d'oxydation du méthane dans la MOL. Par conséquent, il est indispensable de fournir des conditions adéquates pour les activités bactériennes des méthanotrophes. En plus des paramètres environnementaux, l'intensité et la distribution du biogaz influencent l'efficacité des BOPM, et ils peuvent rendre le matériau de la MOL - avec une grande capacité d'accueillir les activités bactériennes - inutilisables en termes d'oxydation du méthane sur place. L'effet de barrière capillaire le long de l'interface entre la GDL et la MOL peut provoquer des émissions localisées de méthane, due à la restriction ou la distribution non uniforme de l’écoulement ascendant du biogaz à la base de la MOL. L'objectif principal de cette étude est d'incorporer le comportement hydraulique non saturé des BOPM dans la conception des BOPM, afin d’assurer la facilité et la distribution adéquates de l'écoulement du biogaz à la base de la MOL. Les fonctions de perméabilité à l'air des matériaux utilisés pour construire la MOL des BOPM expérimentaux au site d’enfouissement des déchets de St Nicéphore (Québec, Canada), ainsi que celles d'autres de la littérature technique, ont été étudiés pour évaluer le comportement d'écoulement non saturé du gaz dans les matériaux et pour identifier le seuil de migration sans restriction du gaz. Ce dernier seuil a été introduit en tant que un paramètre de conception avec lequel le critère de conception recommandé ici, c’est à dire la longueur de la migration sans restriction de gaz (LMSG), a été défini. La LMSG est considérée comme la longueur le long de l'interface entre la GDL et la MOL où le biogaz peut migrer à travers la MOL sans restriction. En réalisant des simulations numériques avec SEEP/W, les effets de la pente de l'interface, des paramètres définissant la courbe de rétention d'eau, de la fonction de la conductivité hydraulique du matériau de la MOL sur la valeur de la LMSG (représentant la facilité d'écoulement du biogaz à l'interface) et de la distribution de l'humidité (et par conséquent celle du biogaz) ont été évalués. Selon les résultats des simulations, la conductivité hydraulique saturée et la distribution des tailles de pores du matériau de la MOL sont les paramètres les plus importants sur la distribution de l'humidité le long de l'interface. Ce dernier paramètre influe également sur la valeur du degré de saturation et donc la facilité du biogaz à la base de la MOL. La densité sèche du matériau de MOL est un autre paramètre qui contrôle la facilité d'écoulement ascendant du biogaz. Les limitations principales de la présente étude sont associées au nombre de matériaux de MOL testés et à l'incapacité de SEEP/W de considérer l'évapotranspiration. Toutefois, compte tenu des hypothèses raisonnables dans les simulations et en utilisant les données de la littérature, on a essayé de réduire ces limitations. En utilisant les résultats des expériences et des simulations numériques, des étapes et des considérations de conception pour la sélection du matériau de MOL et de la pente d'interface ont été proposées. En effet,le comportement hydraulique non saturé des matériaux serait intégré dans les nécessités de conception pour un BOPM efficace, de sorte que la capacité maximale possible d'oxydation du méthane du matériau de la MOL soit exploitée.
Resumo:
La visibilidad de una página Web involucra el proceso de mejora de la posición del sitio en los resultados devueltos por motores de búsqueda como Google. Hay muchas empresas que compiten agresivamente para conseguir la primera posición en los motores de búsqueda más populares. Como regla general, los sitios que aparecen más arriba en los resultados suelen obtener más tráfico a sus páginas, y de esta forma, potencialmente más negocios. En este artículo se describe los principales modelos para enriquecer los resultados de las búsquedas con información tales como fechas o localidades; información de tipo clave-valor que permite al usuario interactuar con el contenido de una página Web directamente desde el sitio de resultados de la búsqueda. El aporte fundamental del artículo es mostrar la utilidad de diferentes formatos de marcado para enriquecer fragmentos de una página Web con el fin de ayudar a las empresas que están planeando implementar métodos de enriquecimiento semánticos en la estructuración de sus sitios Web.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2015.
Resumo:
Las transformaciones tecnológicas y de información que está experimentando la sociedad, especialmente en la última década, está produciendo un crecimiento exponencial de los datos en todos los ámbitos de la sociedad. Los datos que se generan en los diferentes ámbitos se corresponden con elementos primarios de información que por sí solos son irrelevantes como apoyo a las tomas de decisiones. Para que estos datos puedan ser de utilidad en cualquier proceso de decisión, es preciso que se conviertan en información, es decir, en un conjunto de datos procesados con un significado, para ayudar a crear conocimiento. Estos procesos de transformación de datos en información se componen de diferentes fases como la localización de las fuentes de información, captura, análisis y medición.Este cambio tecnológico y a su vez de la sociedad ha provocado un aumento de las fuentes de información, de manera que cualquier persona, empresas u organización, puede generar información que puede ser relevante para el negocio de las empresas o gobiernos. Localizar estas fuentes, identificar información relevante en la fuente y almacenar la información que generan, la cual puede tener diferentes formatos, es el primer paso de todo el proceso anteriormente descrito, el cual tiene que ser ejecutado de manera correcta ya que el resto de fases dependen de las fuentes y datos recolectados. Para la identificación de información relevante en las fuentes se han creado lo que se denomina, robot de búsqueda, los cuales examinan de manera automática una fuente de información, localizando y recolectando datos que puedan ser de interés.En este trabajo se diseña e implementa un robot de conocimiento junto con los sistemas de captura de información online para fuentes hipertextuales y redes sociales.