946 resultados para Databases as Topic


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los polímeros armados con fibras (FRP) se utilizan en refuerzos de estructuras de hormigón debido sobre todo a sus excelentes propiedades mecánicas, su resistencia a la corrosión y a su ligereza que se traduce en facilidad y ahorro en el transporte, puesta en obra y aplicación, la cual se realiza de forma muy rápida, con pocos operarios y utilizando medios auxiliares ligeros, minimizándose las interrupciones del uso de la estructura y las molestias a los usuarios. Las razones presentadas anteriormente, han despertado un gran inter´es por parte de diferentes grupos de investigación a nivel mundial y que actualmente se encuentran desarrollando nuevas técnicas de aplicación y métodos de cálculo. Sin embargo, las investigaciones realizadas hasta la fecha, muestran un procedimiento bien definido y aceptado en lo referente al cálculo a flexión, lo cual no ocurre con el refuerzo a cortante y aunque se ha demostrado que el refuerzo con FRP es un sistema eficaz para incrementar la capacidad ´ultima frente a esfuerzos cortantes, también se pone de manifiesto la necesidad de más estudios experimentales y teóricos para avanzar en el entendimiento de los mecanismos involucrados para este tipo de refuerzo y establecer un procedimiento de diseño apropiado que maximice las excelentes propiedades de este material. Los modelos que explican el comportamiento del refuerzo a cortante de elementos de hormigón armado son complejos y sin transposición directa a fórmulas ingenieriles. Las normas actualmente en vigor, generalmente, establecen empíricamente la capacidad cortante como la suma de las capacidades del hormigón y el refuerzo transversal de acero. Cuando un elemento es reforzado externamente con FRP, los modelos son evidentemente aun más complejos. Las guías y recomendaciones existentes proponen calcular la capacidad del elemento añadiendo la resistencia aportada por el refuerzo externo de FRP a la ya dada por el hormigón y acero transversal. Sin embargo, la idoneidad de este acercamiento es cuestionable puesto que no tiene en cuenta una posible interacción entre refuerzos. Con base en lo anterior se da origen al tema objeto de este trabajo, el cual está orientado al estudio a cortante de elementos de hormigón armado (HA), reforzados externamente con material compuesto de tejido unidireccional de fibra de carbono y resina epoxi. Inicialmente se hace una completa revisión del estado actual del conocimiento de la resistencia a cortante en elementos de hormigón armado con y sin refuerzo externo de FRP, prestando especial atención en los mecanismos actuantes estudiados hasta la fecha. La bibliografía consultada ha sido exhaustiva y actualizada lo que ha permitido el estudio de los modelos propuestos más importantes, tanto para la descripción del fenómeno de adherencia entre hormigón-FRP como de la valoración del aporte al cortante total hecho por el FRP, a través de sendas bases de datos de ensayos de pull-out y de vigas de hormigón armado ensayadas a cortante. Con base en todo lo anterior, se expusieron los mecanismos actuantes en el aporte a cortante hecho por el FRP en elementos de hormigón armado y la forma como las principales guías de cálculo existentes hasta la fecha los abordan. De igual forma se define un modelo de resistencia de esfuerzos para el FRP y se proponen dos modelos para el cálculo de las tensiones o deformaciones efectivas, de los cuales uno esta basado en el modelo de adherencia propuesto por Oller (2005) y el otro en una regresión multivariante para los mecanismos expuestos. Como complemento del estudio de los trabajos encontrados en la literatura, se lleva acabo un programa experimental que, además de aportar más registros a la exigua base de datos existentes, aporte mayor luz a los puntos que se consideran están deficientemente resueltos. Dentro de este programa se realizaron 32 ensayos sobre 16 vigas de 4.5 m de longitud (dos ensayos por viga), reforzadas a cortante con tejido unidireccional de CFRP. Finalmente, estos estudios han permitido proponer modificaciones a las formulaciones existentes en los códigos y guías en vigor. Abstract Its excellent mechanical properties, as well as its corrosion resistance and light weight, which make it easy to apply and inexpensive to ship to the worksite, are the basis of the extended use of fiber reinforced polymer (FRP) as external strengthening for structures. FRP strengthening is a rapid operation calling for only limited labor and lightweight ancillary equipment, all of which minimizes both the interruption of facility usage and user inconvenience. These advantages have aroused considerable interest in civil engineering science and technology and have led to countless applications the world over. Research studies on the shear strength of FRP-strengthened members have been much fewer in number and more controversial than the research on flexural strengthening, for which a more or less standardized and generally accepted procedure has been established. The research conducted and a host of applications around the world have shown that FRP strengthening is an effective technique for raising ultimate shear strength, but it has also revealed a need for further experimental and theoretical research to advance in the understanding of the mechanisms involved and establish suitable design procedures that optimize the excellent properties of this material The models that explain reinforced concrete (RC) shear strength behavior are complex and cannot be directly transposed to engineering formulas. The standards presently in place generally establish shear capacity empirically as the sum of the capacities of the concrete and the passive reinforcement. When members are externally strengthened with FRP, the models are obviously even more complex. The existing guides and recommendations propose calculating capacity by adding the external strength provided by the FRP to the contributions of the concrete and passive reinforcement. The suitability of this approach is questionable, however, because it fails to consider the interaction between passive reinforcement and external strengthening. The subject of this work is based in above, which is focused on externally shear strengthening for reinforced concrete members with unidirectional carbon fiber sheets bonded with epoxy resin. v Initially a thorough literature review on shear of reinforced concrete beams with and without external FRP strengthening was performed, paying special attention to the acting mechanisms studied to date, which allowed the study of the most important models both to describe the bond phenomenon as well as calculating the FRP shear contribution, through separate databases of pull-out tests and shear tests on reinforced concrete beams externally strengthened with FRP. Based on above, they were exposed the acting mechanisms in a FRP shear strengthening on reinforced concrete beams and how guidelines deal the topic. The same way, it is defined a FRP stress strength model and two more models are proposed for calculating the effective stress, one of these is based on the Oller (2005) bond model and another one is the data best fit, taking into account most of the acting mechanisms. To complement the theoretical part we develop an experimental program that, in addition to providing more records to the meager existing database provide greater understanding to the points considered poorly resolved. The test program included 32 tests of 16 beams (2 per beam) of 4.5 m long, shear strengthened with FRP, externally. Finally, modifications to the existing codes and guidelines are proposed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The need to refine models for best-estimate calculations, based on good-quality experimental data, has been expressed in many recent meetings in the field of nuclear applications. The modeling needs arising in this respect should not be limited to the currently available macroscopic methods but should be extended to next-generation analysis techniques that focus on more microscopic processes. One of the most valuable databases identified for the thermalhydraulics modeling was developed by the Nuclear Power Engineering Corporation (NUPEC), Japan. From 1987 to 1995, NUPEC performed steady-state and transient critical power and departure from nucleate boiling (DNB) test series based on the equivalent full-size mock-ups. Considering the reliability not only of the measured data, but also other relevant parameters such as the system pressure, inlet sub-cooling and rod surface temperature, these test series supplied the first substantial database for the development of truly mechanistic and consistent models for boiling transition and critical heat flux. Over the last few years the Pennsylvania State University (PSU) under the sponsorship of the U.S. Nuclear Regulatory Commission (NRC) has prepared, organized, conducted and summarized the OECD/NRC Full-size Fine-mesh Bundle Tests (BFBT) Benchmark. The international benchmark activities have been conducted in cooperation with the Nuclear Energy Agency/Organization for Economic Co-operation and Development (NEA/OECD) and Japan Nuclear Energy Safety (JNES) organization, Japan. Consequently, the JNES has made available the Boiling Water Reactor (BWR) NUPEC database for the purposes of the benchmark. Based on the success of the OECD/NRC BFBT benchmark the JNES has decided to release also the data based on the NUPEC Pressurized Water Reactor (PWR) subchannel and bundle tests for another follow-up international benchmark entitled OECD/NRC PWR Subchannel and Bundle Tests (PSBT) benchmark. This paper presents an application of the joint Penn State University/Technical University of Madrid (UPM) version of the well-known subchannel code COBRA-TF, namely CTF, to the critical power and departure from nucleate boiling (DNB) exercises of the OECD/NRC BFBT and PSBT benchmarks

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Over the last few years, the Pennsylvania State University (PSU) under the sponsorship of the US Nuclear Regulatory Commission (NRC) has prepared, organized, conducted, and summarized two international benchmarks based on the NUPEC data—the OECD/NRC Full-Size Fine-Mesh Bundle Test (BFBT) Benchmark and the OECD/NRC PWR Sub-Channel and Bundle Test (PSBT) Benchmark. The benchmarks’ activities have been conducted in cooperation with the Nuclear Energy Agency/Organization for Economic Co-operation and Development (NEA/OECD) and the Japan Nuclear Energy Safety (JNES) Organization. This paper presents an application of the joint Penn State University/Technical University of Madrid (UPM) version of the well-known sub-channel code COBRA-TF (Coolant Boiling in Rod Array-Two Fluid), namely, CTF, to the steady state critical power and departure from nucleate boiling (DNB) exercises of the OECD/NRC BFBT and PSBT benchmarks. The goal is two-fold: firstly, to assess these models and to examine their strengths and weaknesses; and secondly, to identify the areas for improvement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a dynamic LM adaptation based on the topic that has been identified on a speech segment. We use LSA and the given topic labels in the training dataset to obtain and use the topic models. We propose a dynamic language model adaptation to improve the recognition performance in "a two stages" AST system. The final stage makes use of the topic identification with two variants: the first on uses just the most probable topic and the other one depends on the relative distances of the topics that have been identified. We perform the adaptation of the LM as a linear interpolation between a background model and topic-based LM. The interpolation weight id dynamically adapted according to different parameters. The proposed method is evaluated on the Spanish partition of the EPPS speech database. We achieved a relative reduction in WER of 11.13% over the baseline system which uses a single blackground LM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper shares our experience with initial negotiation and topic elicitation process for conducting industry experiments in six software development organizations in Finland. The process involved interaction with company representatives in the form of both multiple group discussions and separate face-to-face meetings. Fitness criteria developed by researchers were applied to the list of generated topics to decide on a common topic. The challenges we faced include diversity of proposed topics, communication gaps, skepticism about research methods, initial disconnect between research and industry needs, and lack of prior work relationship. Lessons learned include having enough time to establish trust with partners, importance of leveraging the benefits of training and skill development that are inherent in the experimental approach, uniquely positioning the experimental approach within the landscape of other validation approaches more familiar to industrial partners, and introducing the fitness criteria early in the process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La última década ha sido testigo de importantes avances en el campo de la tecnología de reconocimiento de voz. Los sistemas comerciales existentes actualmente poseen la capacidad de reconocer habla continua de múltiples locutores, consiguiendo valores aceptables de error, y sin la necesidad de realizar procedimientos explícitos de adaptación. A pesar del buen momento que vive esta tecnología, el reconocimiento de voz dista de ser un problema resuelto. La mayoría de estos sistemas de reconocimiento se ajustan a dominios particulares y su eficacia depende de manera significativa, entre otros muchos aspectos, de la similitud que exista entre el modelo de lenguaje utilizado y la tarea específica para la cual se está empleando. Esta dependencia cobra aún más importancia en aquellos escenarios en los cuales las propiedades estadísticas del lenguaje varían a lo largo del tiempo, como por ejemplo, en dominios de aplicación que involucren habla espontánea y múltiples temáticas. En los últimos años se ha evidenciado un constante esfuerzo por mejorar los sistemas de reconocimiento para tales dominios. Esto se ha hecho, entre otros muchos enfoques, a través de técnicas automáticas de adaptación. Estas técnicas son aplicadas a sistemas ya existentes, dado que exportar el sistema a una nueva tarea o dominio puede requerir tiempo a la vez que resultar costoso. Las técnicas de adaptación requieren fuentes adicionales de información, y en este sentido, el lenguaje hablado puede aportar algunas de ellas. El habla no sólo transmite un mensaje, también transmite información acerca del contexto en el cual se desarrolla la comunicación hablada (e.g. acerca del tema sobre el cual se está hablando). Por tanto, cuando nos comunicamos a través del habla, es posible identificar los elementos del lenguaje que caracterizan el contexto, y al mismo tiempo, rastrear los cambios que ocurren en estos elementos a lo largo del tiempo. Esta información podría ser capturada y aprovechada por medio de técnicas de recuperación de información (information retrieval) y de aprendizaje de máquina (machine learning). Esto podría permitirnos, dentro del desarrollo de mejores sistemas automáticos de reconocimiento de voz, mejorar la adaptación de modelos del lenguaje a las condiciones del contexto, y por tanto, robustecer al sistema de reconocimiento en dominios con condiciones variables (tales como variaciones potenciales en el vocabulario, el estilo y la temática). En este sentido, la principal contribución de esta Tesis es la propuesta y evaluación de un marco de contextualización motivado por el análisis temático y basado en la adaptación dinámica y no supervisada de modelos de lenguaje para el robustecimiento de un sistema automático de reconocimiento de voz. Esta adaptación toma como base distintos enfoque de los sistemas mencionados (de recuperación de información y aprendizaje de máquina) mediante los cuales buscamos identificar las temáticas sobre las cuales se está hablando en una grabación de audio. Dicha identificación, por lo tanto, permite realizar una adaptación del modelo de lenguaje de acuerdo a las condiciones del contexto. El marco de contextualización propuesto se puede dividir en dos sistemas principales: un sistema de identificación de temática y un sistema de adaptación dinámica de modelos de lenguaje. Esta Tesis puede describirse en detalle desde la perspectiva de las contribuciones particulares realizadas en cada uno de los campos que componen el marco propuesto: _ En lo referente al sistema de identificación de temática, nos hemos enfocado en aportar mejoras a las técnicas de pre-procesamiento de documentos, asimismo en contribuir a la definición de criterios más robustos para la selección de index-terms. – La eficiencia de los sistemas basados tanto en técnicas de recuperación de información como en técnicas de aprendizaje de máquina, y específicamente de aquellos sistemas que particularizan en la tarea de identificación de temática, depende, en gran medida, de los mecanismos de preprocesamiento que se aplican a los documentos. Entre las múltiples operaciones que hacen parte de un esquema de preprocesamiento, la selección adecuada de los términos de indexado (index-terms) es crucial para establecer relaciones semánticas y conceptuales entre los términos y los documentos. Este proceso también puede verse afectado, o bien por una mala elección de stopwords, o bien por la falta de precisión en la definición de reglas de lematización. En este sentido, en este trabajo comparamos y evaluamos diferentes criterios para el preprocesamiento de los documentos, así como también distintas estrategias para la selección de los index-terms. Esto nos permite no sólo reducir el tamaño de la estructura de indexación, sino también mejorar el proceso de identificación de temática. – Uno de los aspectos más importantes en cuanto al rendimiento de los sistemas de identificación de temática es la asignación de diferentes pesos a los términos de acuerdo a su contribución al contenido del documento. En este trabajo evaluamos y proponemos enfoques alternativos a los esquemas tradicionales de ponderado de términos (tales como tf-idf ) que nos permitan mejorar la especificidad de los términos, así como también discriminar mejor las temáticas de los documentos. _ Respecto a la adaptación dinámica de modelos de lenguaje, hemos dividimos el proceso de contextualización en varios pasos. – Para la generación de modelos de lenguaje basados en temática, proponemos dos tipos de enfoques: un enfoque supervisado y un enfoque no supervisado. En el primero de ellos nos basamos en las etiquetas de temática que originalmente acompañan a los documentos del corpus que empleamos. A partir de estas, agrupamos los documentos que forman parte de la misma temática y generamos modelos de lenguaje a partir de dichos grupos. Sin embargo, uno de los objetivos que se persigue en esta Tesis es evaluar si el uso de estas etiquetas para la generación de modelos es óptimo en términos del rendimiento del reconocedor. Por esta razón, nosotros proponemos un segundo enfoque, un enfoque no supervisado, en el cual el objetivo es agrupar, automáticamente, los documentos en clusters temáticos, basándonos en la similaridad semántica existente entre los documentos. Por medio de enfoques de agrupamiento conseguimos mejorar la cohesión conceptual y semántica en cada uno de los clusters, lo que a su vez nos permitió refinar los modelos de lenguaje basados en temática y mejorar el rendimiento del sistema de reconocimiento. – Desarrollamos diversas estrategias para generar un modelo de lenguaje dependiente del contexto. Nuestro objetivo es que este modelo refleje el contexto semántico del habla, i.e. las temáticas más relevantes que se están discutiendo. Este modelo es generado por medio de la interpolación lineal entre aquellos modelos de lenguaje basados en temática que estén relacionados con las temáticas más relevantes. La estimación de los pesos de interpolación está basada principalmente en el resultado del proceso de identificación de temática. – Finalmente, proponemos una metodología para la adaptación dinámica de un modelo de lenguaje general. El proceso de adaptación tiene en cuenta no sólo al modelo dependiente del contexto sino también a la información entregada por el proceso de identificación de temática. El esquema usado para la adaptación es una interpolación lineal entre el modelo general y el modelo dependiente de contexto. Estudiamos también diferentes enfoques para determinar los pesos de interpolación entre ambos modelos. Una vez definida la base teórica de nuestro marco de contextualización, proponemos su aplicación dentro de un sistema automático de reconocimiento de voz. Para esto, nos enfocamos en dos aspectos: la contextualización de los modelos de lenguaje empleados por el sistema y la incorporación de información semántica en el proceso de adaptación basado en temática. En esta Tesis proponemos un marco experimental basado en una arquitectura de reconocimiento en ‘dos etapas’. En la primera etapa, empleamos sistemas basados en técnicas de recuperación de información y aprendizaje de máquina para identificar las temáticas sobre las cuales se habla en una transcripción de un segmento de audio. Esta transcripción es generada por el sistema de reconocimiento empleando un modelo de lenguaje general. De acuerdo con la relevancia de las temáticas que han sido identificadas, se lleva a cabo la adaptación dinámica del modelo de lenguaje. En la segunda etapa de la arquitectura de reconocimiento, usamos este modelo adaptado para realizar de nuevo el reconocimiento del segmento de audio. Para determinar los beneficios del marco de trabajo propuesto, llevamos a cabo la evaluación de cada uno de los sistemas principales previamente mencionados. Esta evaluación es realizada sobre discursos en el dominio de la política usando la base de datos EPPS (European Parliamentary Plenary Sessions - Sesiones Plenarias del Parlamento Europeo) del proyecto europeo TC-STAR. Analizamos distintas métricas acerca del rendimiento de los sistemas y evaluamos las mejoras propuestas con respecto a los sistemas de referencia. ABSTRACT The last decade has witnessed major advances in speech recognition technology. Today’s commercial systems are able to recognize continuous speech from numerous speakers, with acceptable levels of error and without the need for an explicit adaptation procedure. Despite this progress, speech recognition is far from being a solved problem. Most of these systems are adjusted to a particular domain and their efficacy depends significantly, among many other aspects, on the similarity between the language model used and the task that is being addressed. This dependence is even more important in scenarios where the statistical properties of the language fluctuates throughout the time, for example, in application domains involving spontaneous and multitopic speech. Over the last years there has been an increasing effort in enhancing the speech recognition systems for such domains. This has been done, among other approaches, by means of techniques of automatic adaptation. These techniques are applied to the existing systems, specially since exporting the system to a new task or domain may be both time-consuming and expensive. Adaptation techniques require additional sources of information, and the spoken language could provide some of them. It must be considered that speech not only conveys a message, it also provides information on the context in which the spoken communication takes place (e.g. on the subject on which it is being talked about). Therefore, when we communicate through speech, it could be feasible to identify the elements of the language that characterize the context, and at the same time, to track the changes that occur in those elements over time. This information can be extracted and exploited through techniques of information retrieval and machine learning. This allows us, within the development of more robust speech recognition systems, to enhance the adaptation of language models to the conditions of the context, thus strengthening the recognition system for domains under changing conditions (such as potential variations in vocabulary, style and topic). In this sense, the main contribution of this Thesis is the proposal and evaluation of a framework of topic-motivated contextualization based on the dynamic and non-supervised adaptation of language models for the enhancement of an automatic speech recognition system. This adaptation is based on an combined approach (from the perspective of both information retrieval and machine learning fields) whereby we identify the topics that are being discussed in an audio recording. The topic identification, therefore, enables the system to perform an adaptation of the language model according to the contextual conditions. The proposed framework can be divided in two major systems: a topic identification system and a dynamic language model adaptation system. This Thesis can be outlined from the perspective of the particular contributions made in each of the fields that composes the proposed framework: _ Regarding the topic identification system, we have focused on the enhancement of the document preprocessing techniques in addition to contributing in the definition of more robust criteria for the selection of index-terms. – Within both information retrieval and machine learning based approaches, the efficiency of topic identification systems, depends, to a large extent, on the mechanisms of preprocessing applied to the documents. Among the many operations that encloses the preprocessing procedures, an adequate selection of index-terms is critical to establish conceptual and semantic relationships between terms and documents. This process might also be weakened by a poor choice of stopwords or lack of precision in defining stemming rules. In this regard we compare and evaluate different criteria for preprocessing the documents, as well as for improving the selection of the index-terms. This allows us to not only reduce the size of the indexing structure but also to strengthen the topic identification process. – One of the most crucial aspects, in relation to the performance of topic identification systems, is to assign different weights to different terms depending on their contribution to the content of the document. In this sense we evaluate and propose alternative approaches to traditional weighting schemes (such as tf-idf ) that allow us to improve the specificity of terms, and to better identify the topics that are related to documents. _ Regarding the dynamic language model adaptation, we divide the contextualization process into different steps. – We propose supervised and unsupervised approaches for the generation of topic-based language models. The first of them is intended to generate topic-based language models by grouping the documents, in the training set, according to the original topic labels of the corpus. Nevertheless, a goal of this Thesis is to evaluate whether or not the use of these labels to generate language models is optimal in terms of recognition accuracy. For this reason, we propose a second approach, an unsupervised one, in which the objective is to group the data in the training set into automatic topic clusters based on the semantic similarity between the documents. By means of clustering approaches we expect to obtain a more cohesive association of the documents that are related by similar concepts, thus improving the coverage of the topic-based language models and enhancing the performance of the recognition system. – We develop various strategies in order to create a context-dependent language model. Our aim is that this model reflects the semantic context of the current utterance, i.e. the most relevant topics that are being discussed. This model is generated by means of a linear interpolation between the topic-based language models related to the most relevant topics. The estimation of the interpolation weights is based mainly on the outcome of the topic identification process. – Finally, we propose a methodology for the dynamic adaptation of a background language model. The adaptation process takes into account the context-dependent model as well as the information provided by the topic identification process. The scheme used for the adaptation is a linear interpolation between the background model and the context-dependent one. We also study different approaches to determine the interpolation weights used in this adaptation scheme. Once we defined the basis of our topic-motivated contextualization framework, we propose its application into an automatic speech recognition system. We focus on two aspects: the contextualization of the language models used by the system, and the incorporation of semantic-related information into a topic-based adaptation process. To achieve this, we propose an experimental framework based in ‘a two stages’ recognition architecture. In the first stage of the architecture, Information Retrieval and Machine Learning techniques are used to identify the topics in a transcription of an audio segment. This transcription is generated by the recognition system using a background language model. According to the confidence on the topics that have been identified, the dynamic language model adaptation is carried out. In the second stage of the recognition architecture, an adapted language model is used to re-decode the utterance. To test the benefits of the proposed framework, we carry out the evaluation of each of the major systems aforementioned. The evaluation is conducted on speeches of political domain using the EPPS (European Parliamentary Plenary Sessions) database from the European TC-STAR project. We analyse several performance metrics that allow us to compare the improvements of the proposed systems against the baseline ones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de esta tesis se busca aportar un análisis de los elementos peatonales que cubren las necesidades y las infraestructuras de apoyo al peatón, siendo un campo poco desarrollado en nuestro país a diferencia de otros como Dinamarca, Reino Unido, Alemania y Holanda, donde las actuaciones peatonales ejecutadas son tradicionales y muy exitosas. Se trata por tanto de un tema poco estudiado pero que adquiere singular importancia en estos años de búsqueda de nuevos modelos urbanos que eviten el derroche de recursos, y avancen hacia formas de movilidad más adecuadas a un mundo limitado y vulnerable. La investigación tiene un carácter eminentemente descriptivo cuyo principal valor es documentar y analizar sistemáticamente una realidad poco conocida, aportándose datos para entender el origen y desarrollo de las actuaciones peatonales. El propósito es ayudar a cimentar este campo en nuestro país, definiendo con precisión el estado de la cuestión geográficamente y dejando para un futuro una cartografía temática completa. El objeto general es estudiar y comprender los elementos peatonales de un número limitado de ciudades medias españolas, marcándose como objetivos específicos los siguientes: - Identificar y describir los principales elementos que conforman la red peatonal de las ciudades. ‐ Estudiar las tipologías espaciales dominantes, sus características y orígenes, pudiendo distinguir de un lado, las desarrolladas en la ciudad consolidada, como las actuaciones en los cascos antiguos; y por otro, las ejecutadas en la ciudad nueva a través de fórmulas arquitectónicas generalmente residenciales con espacios peatonales adjuntos. ‐ Analizar los referidos elementos para comprobar si han conformado redes de uso peatonal, si se han constituido articulando la ciudad como en el caso de los ejes lineales en las ciudades con río o mar, o si han influenciado el carácter del entorno en el que se han realizado, centrando el interés en los cascos históricos peatonalizados. ‐ Comprobar si hay actuaciones complementarias a los procesos de urbanización y mejora urbanística, así como la aprobación de ayudas y subvenciones para afrontar las mismas. ‐ Finalmente, describir y evaluar los procesos y procedimientos mediante los que se produce la peatonalización de determinadas áreas urbanas, los orígenes, los instrumentos y fechas de su puesta en marcha, aportando una cronología peatonal. La metodología comienza con la acotación de 22 ciudades españolas, capitales de provincia con una población entre 100.000 y 500.000 habitantes según los datos del INE del año 2009. La distribución es equilibrada con la selección de ciudades de costa, de interior, con río/ría, con carácter patrimonial, ciudades en islas, etc. El análisis de los elementos peatonales de estas urbes se realiza gracias a la gran resolución de las bases cartográficas públicas y privadas que hay en la actualidad en internet, especialmente con el uso de las herramientas de Google Earth y Google Maps en su versión “street view”, softwares que permiten un paseo virtual de cada ciudad detallándose con gran precisión las actuaciones peatonales. Las ciudades elegidas son: ‐ 11 ciudades costeras: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián y Tarragona. ‐ 11 ciudades de interior: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid y Vitoria. Finalmente, por tener los porcentajes mas elevados de las áreas peatonales de sus casco histórico, se eligen 3 casos de ciudades representativas para un desarrollo peatonal en profundidad, seleccionándose Burgos, San Sebastián y Pamplona. Otros aspectos metodológicos interesantes a destacar, es la extensa documentación adquirida a través de las fuentes de Internet, sobre todo a la hora de desarrollar el último capítulo “Procesos de peatonalización de las ciudades españolas” centrado en las 3 ciudades elegidas. Se consulta las hemerotecas de periódicos locales, los boletines oficiales, las actas de los plenos de los Ayuntamientos y los documentos de planificación (Planes Generales, Planes Especiales, Planes y Proyectos Municipales, Planes de Movilidad), adquiriéndose una precisa información en cuanto a la cronología de las fechas y extensión del trabajo. Se complementa la metodología con las entrevistas a actores claves en el proceso peatonal, como el personal técnico de los Ayuntamiento y los técnicos redactores de los proyectos; y con la colaboración directa de los técnicos de los consistorios de las 3 ciudades seleccionadas, aportando todo tipo de información demandada. En la tesis, se introduce los elementos peatonales mediante el estudio de los espacios peatonales y los procesos de peatonalización existentes, a través del análisis de la literatura consultada aportándose información valiosa en cuanto a la definición de los modelos peatonales, exponiéndose una breve historia de las peatonalizaciones. Destacan las publicaciones de los expertos europeos en la materia como los autores Carmen Hass-Klau, Rolf Monheim, Rob Krier y Collin Buchanan. En España, las actuaciones peatonales fueron tardías en el tiempo en comparación con el resto de Europa, con casi 40 años de retraso. Las referencias bibliográficas españolas en esta materia son escasas siendo las mas significativas las realizadas por Alfonso Sanz y por el profesor Julio Pozueta destacando una de sus últimas publicaciones “La ciudad paseable” describiéndose los elementos peatonales existentes en las ciudades, sirviendo como modelo y ejemplo para esta investigación. En base a lo anterior, se definen los elementos peatonales como aquellos espacios públicos libres de edificación que, por sus características y diseño, garantizan un confortable uso estancial, de tránsito peatonal y están expresamente reservados para ello. En la tesis se detectan y se especifican los siguientes elementos peatonales: las calles y plazas peatonales, las aceras y bulevares de una anchura superior a 8 metros, los paseos peatonales, los elementos de paso (tradicionales y mecánicos), espacios peatonales ligados a nuevas áreas residenciales, los soportales y pasajes peatonales con una anchura mínima de 4 metros, recintos feriales, espacios libres y zonas verdes y parques. Para cada una de las 22 ciudades seleccionadas se realiza un exhaustivo inventario de los anteriores elementos a través de fichas, aportando un gran número de proyectos individuales ejecutados en cada urbe. Esta información se recoge gráficamente en 2 fotoplanos, conformándose como herramientas fundamentales para esta investigación. El Fotoplano 1 se hace sobre la base de la ciudad del Google Earth diferenciándose las áreas peatonales y las zonas verdes. En el Fotoplano 2, y con el soporte anterior, se distinguen las tipologías persistentes y dominantes como son los grandes ejes peatonales, las redes peatonales locales y los elementos peatonales singulares. Finalmente, a partir de los 2 fotoplanos, se realiza la denominada “Huella peatonal” que destaca por su atractivo y pregnancia, algo de lo que el campo de lo peatonal es muy útil. A través de la huella se obtiene una rápida información al tener el plano dos colores, color naranja para lo peatonal (formado por las áreas peatonales y zonas verdes) y color negro para el resto el resto no peatonal. Toda esta documentación gráfica y descriptiva de los elementos peatonales de cada ciudad, queda ampliamente recogida en el Anexo de la tesis. La “Huella peatonal” se considera como el plano básico en la investigación obteniendo una percepción rápida, clara y visual del espacio peatonal de cada ciudad. Se arroja información morfológica con respecto a la distribución espacial, articulación, equilibrio, modulación, cohesión, concentración peatonal, etc. de cada una de las ciudades seleccionadas. A través de la huella se resuelve muchos de las cuestiones enmarcadas como objetivos de la tesis, comprobándose de forma general, que los elementos peatonales dentro de la trama urbana están desarticulados ya que no hay una estructura que module la ciudad como un conjunto cohesionado. Se localizan pequeñas redes conectadas entre sí, que de forma heterogénea, están dispersas por la ciudad. Se verifica que los elementos peatonales con mayor concentración y presencia en las ciudades analizadas son los ejes peatonales, los cascos históricos y los elementos peatonales en las nuevas áreas residenciales. En la investigación, además de estos 3 elementos mencionados, se analiza con mayor profundidad otros tipos que destacan por su persistencia y repetición en la “Huella peatonal” de cada una de las 22 ciudades, como son las plazas peatonales, los soportales y los elementos singulares peatonales: espacios tradicionales (recintos feriales, pasajes, puentes históricos), nuevos elementos peatonales (pasarelas peatonales, elementos mecánicos de paso), áreas peatonales entorno a edificios culturales y otros casos como los consistentes en la recuperación y transformación de edificaciones y construcciones urbanas de diferente uso y tipología, en nuevas áreas peatonales. Se aporta luz sobre su definición, localización, cronología, proporción, presencia y génesis, facilitando resultados de cada uno de ellos. De forma paralela, se obtiene información de índole cuantitativa a través de las mediciones de la huella, obteniéndose datos y porcentajes de extensión de la ciudad, de las zonas peatonales y de las zonas verdes, de los cascos históricos y de sus superficies peatonales, de los metros lineales de dichos cascos históricos y de sus calles peatonales. Se proporcionan ratios e índices que se consideran fundamentales para una mejor comprensión peatonal de cada urbe. Se establece una clasificación de las ciudades en cada uno de los ámbitos descritos, destacando las ciudades de Pamplona, San Sebastián y Burgos por arrojar las cifras peatonales más positivas encabezando la mayoría de las tablas clasificatorias. La peor ciudad valorada es Alicante, seguida según criterio, de Almería, Palma de Mallorca y Las Palmas de GC. En el capítulo final de la investigación, se eligen las ciudades de Burgos, San Sebastián y Pamplona como casos de estudio representativos. El objetivo es obtener un conocimiento más preciso en cuanto a su origen, cronología y procesos de las peatonalizaciones. Cada ciudad se compone de un cuadro cronológicos por etapas, desarrollándose de forma exhaustiva cada una de ellas, enunciadas normalmente, como instrumentos de planeamiento o proyectos de urbanización, acompañadas de los planos de las actuaciones peatonales. Al final de cada etapa se aportan datos de las cifras de las peatonalizaciones que se van realizando, con un cuadro numérico de localizaciones, superficie peatonal, superficie reurbanizada, longitud peatonal y el grado de peatonalización del casco histórico, además de los datos acumulados por etapa. De las conclusiones cruzadas de estas 3 ciudades, destaca la comprobación de la tendencia de ir peatonalizando los centros antiguos llegando incluso al 100% de calles peatonales en el caso de San Sebastián. No obstante, es difícil confirmar si el objetivo es una peatonalización global de los cascos, ya que son muchas las variables que afectan e influyen en el proceso peatonal de cada ciudad. Se coteja adicionalmente cómo se extiende la cultura peatonal desde el interior al exterior, mas allá de los cascos históricos hacia los ensanches próximos. En cuanto al origen de las peatonalizaciones, se concluye que no hay una concepción inicial y teórica marcada, a partir de la cual se va desarrollando la trama peatonal de cada ciudad. Se puede afirmar que los procesos peatonales ejecutados son variados y de diversa índole, sin poder precisar un hecho como causa principal. Según el momento y las circunstancias, las peatonalizaciones responden a distintas iniciativas promovidas por los comerciantes, por las administraciones locales o por los técnicos de planeamiento, con sus expertas aportaciones en los planes. Estos tres agentes actúan como impulsores de proyectos individuales peatonales que se van solapando en el tiempo. Como punto final de la tesis, se propone una serie de nuevas líneas de investigación que pueden servir como estudio adicional y complementario, respondiendo a aspectos tan relevantes como cuestiones de índole económica, social y de movilidad, fuertemente ligadas a las peatonalizaciones, tal y como se demuestra en la literatura consultada. ABSTRACT This thesis aims to analyse the pedestrian elements dealing with the needs and infrastructures that support pedestrians, as this is a field that is little developed in our country, in comparison to other regions such as Denmark, the United Kingdom, Germany and the Netherlands, where the pedestrian actions implemented are traditional and highly successful. Therefore, even though little research has been done about this topic, this field is increasingly important throughout these years of search for urban models intended to prevent the waste of resources and to develop new mobility ways, more adapted to a limited, vulnerable world. This research is essentially descriptive and it mainly aims to document and systematically analysed a scarcely known reality by providing data in order to understand the origin and development of pedestrian actions. This thesis intends to lay the foundations of this field in Spain, accurately defining the state of the art from a geographical point of view and preparing a full thematic map that may be used in the future. The overall aim is to study and understand the pedestrian elements of a limited number of Spanish medium-size cities, establishing the following specific goals: - To identify and describe the main elements comprising cities' pedestrian networks. - To study of special predominant typologies, their features and origins, with the possibility to, on the one hand, make a difference between the typologies developed in well-established cities, such as the actions in historic quarters, and, on the other hand, those implemented in new cities through generally residential architectural formulae with adjoining pedestrian areas. - To analyse the said elements in order to check whether they have resulted in pedestrian-use networks, whether they have been established by organising the city, such as the linear axes in coastal and riverside cities, or whether they have had an impact on the character of the areas where these elements have been implemented, focusing on pedestrian historic quarters. - Check whether there are actions supplementary to the urban development and urban improvement processes, as well as the approval of financial support and subventions to deal with these actions. - Finally, to describe and assess the processes and procedures by which the pedestrianisation of certain urban areas is carried out, the origins, the instruments and the date of their implementation, providing a pedestrian timeline. The methodology starts by defining 22 Spanish cities, province capitals with a population ranging from 100,000 to 500,000 inhabitants, according to the data recorded by the Spanish Statistics Institute (INE) in 2009. The distribution of coastal, riverside and interior cities, as well as of patrimonial cities and cities in islands, etc. is well balanced. The analysis of the pedestrian elements of these cities is made with the great resolution of the public and private map databases that can be accessed on the Internet, especially using the "street-view" version of tools such as Google Earth and Google Maps, software applications that allow to go for a virtual walk in each city, providing highly precise details about the pedestrian actions. The following cities have been chosen: ‐ 11 coastal cities: Alicante, Almería, Bilbao, Cádiz, Castellón de la Plana, Huelva, Las Palmas de Gran Canaria, Palma de Mallorca, Santander, San Sebastián and Tarragona. ‐ 11 interior cities: Albacete, Burgos, Córdoba, León, Lérida, Logroño, Oviedo, Murcia, Pamplona, Valladolid and Vitoria. Finally, as they have the highest percentages regarding the pedestrian areas found in the historic quarters, 3 cities representing a deep pedestrian development have been chosen: Burgos, San Sebastián and Pamplona. Other significant methodological aspects are the many documents found from online sources, especially when preparing the last chapter: “Processes for the pedestrianisation of Spanish cities”, which focuses on the 3 cities chosen. Local newspaper and periodical libraries, official gazettes, the minutes of plenary sessions of councils and the zoning regulation documents (General Zoning Plans, Special Zoning Plans, Municipal Plans and Projects, Mobility Plans, etc.) have been consulted, obtaining accurate information regarding the timeline and the extension of the works carried out. The methodology is supplemented by interviews with key players in the pedestrianisation process, such as the technical staff in councils and the officers drafting and designing the projects, as well as with the direct collaboration by the officers of the councils of the 3 cities chosen, who provided all the information requested. The thesis introduces the pedestrian elements by studying pedestrian areas and existing pedestrianisation processes through the analysis of the literature consulted, providing valuable information for the definition of pedestrian models and showing a brief history and background of the pedestrianisation process. Remarkable papers published by some European experts in the field, such as Carmen Hass-Klau, Rolf Monheim and Collin Buchanan, are covered in the thesis. In Spain, the pedestrianisation actions were late in time in comparison to the rest of Europe, with at least 40 years of delay. The Spanish literature references in this field are limited. The most significant papers are those published by Alfonso Sanz and by Professor Julio Pozueta, with a special mention of one of his last works "La ciudad paseable" (The Walkable City), which describes the pedestrian elements found in the cities and is used a model and an example for this research. Based on the elements above, pedestrian elements are defined as those construction-free public areas that, due to their features and design, ensure the comfortable, convenient use of the spaces, characterised by pedestrian traffic and specifically reserved for this purpose. The thesis detects and specifies the following pedestrian elements: pedestrian streets and squares, pavements (sidewalks) and boulevards with a width exceeding 8 metres, pedestrian promenades, crossing elements (traditional and mechanical), pedestrian spaces linked to new residential areas, colonnades and pedestrian passages or narrow streets with a minimum width of 4 metres, exhibition sites, free spaces and green areas and parks. For each of the 22 cities chosen, a thorough inventory of the elements mentioned above has been made by using worksheets, providing a significant number of individual projects developed in each city. This information is graphically collected and displayed on 2 photomaps, resulting in tools essential for this research. Photomap 1 is made based on the city displayed by Google Earth, making a difference between pedestrian areas and green areas. On Photomap 2, using the tool mentioned above, a difference can be made between persistent and predominant typologies, such as the big pedestrian axes, the local pedestrian networks and singular pedestrian elements. Finally, the 2 photomaps are used in order to establish the so-called "pedestrian footprint", which is highlighted by its attractiveness and appeal, concepts for which the pedestrian field is very useful. With the pedestrian footprint, quick information can be obtained, since the map shows two colours: orange for pedestrian elements (made up of pedestrian areas and green areas) and black for the other non-pedestrian elements. A significant part of these graphic, descriptive documents about each city's pedestrian elements can be found in the thesis appendix. The "Pedestrian Footprint" is regarded in the research as the basic map, obtaining a quick, clear and visual perception of each city's pedestrian space. This footprint provides morphological information regarding the space distribution, the organisation, the balance, the modulation, the cohesion, the pedestrian concentration, etc. in each of the cities chosen. The pedestrian footprint helps solve many of the questions established as the thesis goals, proving that, in general, the pedestrian elements are not organised in the urban plot, as there is no structure modulating the city as a properly linked set of elements. Small networks linked to each other and heterogeneously scattered all over the city are found. It has been verified that the pedestrian elements with the highest concentration and presence in the cities analysed are the pedestrian axes, the historic quarters and the pedestrian elements found in the new residential areas. Besides these 3 elements mentioned, the research analyses in depth other types that are remarkable due to their persistence and repetition in the "Pedestrian Footprint" of each of the 22 cities, such as the pedestrian squares, the colonnades and the singular pedestrian elements: traditional spaces (exhibition sites, passages, historic bridges), new pedestrian elements (pedestrian footbridges, mechanical crossing elements), pedestrian areas around cultural buildings and other cases such as those consisting of recovering and transforming building and urban constructions, intended for a wide range of purposes and of different types, into new pedestrian areas. This work puts light on the definition, location, timeline, proportion, presence and origin, providing results for each of these concepts. At the same time, quantitative information is obtained by measuring the footprint, getting data and percentages on the size of the city, the pedestrian areas and the green areas, the historic quarters and the pedestrian zones, the linear metres of such historic quarters and pedestrian streets. The footprint also provides ratios and rates that are considered as essential in order to better understand the pedestrian elements of each city. A classification of cities is established for each of the areas described, highlighting the cities of Pamplona, San Sebastián and Burgos, as they provide the most positive pedestrian figures and lead most of the classification tables or rankings. According to the criteria considered, the city with the worst values is Alicante, followed by Almería, Palma de Mallorca and Las Palmas de Gran Canaria. In the final chapter in the thesis, the cities of Burgos, San Sebastián and Pamplona are chosen as representative study cases. The aim is to gain more accurate knowledge regarding the pedestrianisation origin, timeline and processes. Each city comprises a chronological sequence made of stages, each of which is thoroughly developed and usually announced as zoning plans or urban development projects, accompanied by the plans of the pedestrian actions. At the end of each stage, data with the figures of the pedestrianisation projects are provided, including a numerical chart with locations, pedestrian area, redeveloped urban areas, pedestrian length and pedestrianisation degree in the historic quarter, as well as the data cumulated throughout each stage. In the crossed conclusions on the three cities, the trend of gradually pedestrianising the historic quarters (even reaching the 100% of the pedestrian streets as in San Sebastián) is verified. However, it is difficult to confirm whether the purpose is to reach an overall pedestrianisation of the historic quarters, since there are many variables that affect and influence each city's pedestrianisation process. In addition, the spread of the pedestrian culture from the internal areas to the external areas, beyond the historic quarters to the nearby expansion areas, is compared. Regarding the origin of pedestrianisations, the thesis comes to the conclusion that there is no initial or theoretical conception from which each city's pedestrian plot is developed. The pedestrian processes implemented are varied and diverse but no fact can be specified as the main cause. Based on the moment and circumstances, the pedestrianisation processes are due to different initiatives promoted by shopkeepers, by the local administrations or by the zoning officers, with their expert contributions to the plans. These three players promote and drive individual pedestrianisation projects that overlap in the course of time. Finally, new lines of research are put forwards, as they can be taken as an additional study and as a supplement to this research, dealing with aspects as significant as the economic, social and mobility factors, closely linked to the pedestrianisation processes, as proven in the literature consulted.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Expressed sequence tags (ESTs) are randomly sequenced cDNA clones. Currently, nearly 3 million human and 2 million mouse ESTs provide valuable resources that enable researchers to investigate the products of gene expression. The EST databases have proven to be useful tools for detecting homologous genes, for exon mapping, revealing differential splicing, etc. With the increasing availability of large amounts of poorly characterised eukaryotic (notably human) genomic sequence, ESTs have now become a vital tool for gene identification, sometimes yielding the only unambiguous evidence for the existence of a gene expression product. However, BLAST-based Web servers available to the general user have not kept pace with these developments and do not provide appropriate tools for querying EST databases with large highly spliced genes, often spanning 50 000–100 000 bases or more. Here we describe Gene2EST (http://woody.embl-heidelberg.de/gene2est/), a server that brings together a set of tools enabling efficient retrieval of ESTs matching large DNA queries and their subsequent analysis. RepeatMasker is used to mask dispersed repetitive sequences (such as Alu elements) in the query, BLAST2 for searching EST databases and Artemis for graphical display of the findings. Gene2EST combines these components into a Web resource targeted at the researcher who wishes to study one or a few genes to a high level of detail.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The ARKdb genome databases provide comprehensive public repositories for genome mapping data from farmed species and other animals (http://www.thearkdb.org) providing a resource similar in function to that offered by GDB or MGD for human or mouse genome mapping data, respectively. Because we have attempted to build a generic mapping database, the system has wide utility, particularly for those species for which development of a specific resource would be prohibitive. The ARKdb genome database model has been implemented for 10 species to date. These are pig, chicken, sheep, cattle, horse, deer, tilapia, cat, turkey and salmon. Access to the ARKdb databases is effected via the World Wide Web using the ARKdb browser and Anubis map viewer. The information stored includes details of loci, maps, experimental methods and the source references. Links to other information sources such as PubMed and EMBL/GenBank are provided. Responsibility for data entry and curation is shared amongst scientists active in genome research in the species of interest. Mirror sites in the United States are maintained in addition to the central genome server at Roslin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The amount of genomic and proteomic data that is entered each day into databases and the experimental literature is outstripping the ability of experimental scientists to keep pace. While generic databases derived from automated curation efforts are useful, most biological scientists tend to focus on a class or family of molecules and their biological impact. Consequently, there is a need for molecular class-specific or other specialized databases. Such databases collect and organize data around a single topic or class of molecules. If curated well, such systems are extremely useful as they allow experimental scientists to obtain a large portion of the available data most relevant to their needs from a single source. We are involved in the development of two such databases with substantial pharmacological relevance. These are the GPCRDB and NucleaRDB information systems, which collect and disseminate data related to G protein-coupled receptors and intra-nuclear hormone receptors, respectively. The GPCRDB was a pilot project aimed at building a generic molecular class-specific database capable of dealing with highly heterogeneous data. A first version of the GPCRDB project has been completed and it is routinely used by thousands of scientists. The NucleaRDB was started recently as an application of the concept for the generalization of this technology. The GPCRDB is available via the WWW at http://www.gpcr.org/7tm/ and the NucleaRDB at http://www.receptors.org/NR/.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is no control over the information provided with sequences when they are deposited in the sequence databases. Consequently mistakes can seed the incorrect annotation of other sequences. Grouping genes into families and applying controlled annotation overcomes the problems of incorrect annotation associated with individual sequences. Two databases (http://www.mendel.ac.uk) were created to apply controlled annotation to plant genes and plant ESTs: Mendel-GFDb is a database of plant protein (gene) families based on gapped-BLAST analysis of all sequences in the SWISS-PROT family of databases. Sequences are aligned (ClustalW) and identical and similar residues shaded. The families are visually curated to ensure that one or more criteria, for example overall relatedness and/or domain similarity relate all sequences within a family. Sequence families are assigned a ‘Gene Family Number’ and a unified description is developed which best describes the family and its members. If authority exists the gene family is assigned a ‘Gene Family Name’. This information is placed in Mendel-GFDb. Mendel-ESTS is primarily a database of plant ESTs, which have been compared to Mendel-GFDb, completely sequenced genomes and domain databases. This approach associated ESTs with individual sequences and the controlled annotation of gene families and protein domains; the information being placed in Mendel-ESTS. The controlled annotation applied to genes and ESTs provides a basis from which a plant transcription database can be developed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

High throughput genome (HTG) and expressed sequence tag (EST) sequences are currently the most abundant nucleotide sequence classes in the public database. The large volume, high degree of fragmentation and lack of gene structure annotations prevent efficient and effective searches of HTG and EST data for protein sequence homologies by standard search methods. Here, we briefly describe three newly developed resources that should make discovery of interesting genes in these sequence classes easier in the future, especially to biologists not having access to a powerful local bioinformatics environment. trEST and trGEN are regularly regenerated databases of hypothetical protein sequences predicted from EST and HTG sequences, respectively. Hits is a web-based data retrieval and analysis system providing access to precomputed matches between protein sequences (including sequences from trEST and trGEN) and patterns and profiles from Prosite and Pfam. The three resources can be accessed via the Hits home page (http://hits.isb-sib.ch).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Internet has created new opportunities for librarians to present literature search results to clinicians. In order to take full advantage of these opportunities, libraries need to create locally maintained bibliographic databases. A simple method of creating a local bibliographic database and publishing it on the Web is described. The method uses off-the-shelf software and requires minimal programming. A hedge search strategy for outcome studies of clinical process interventions is created, and Ovid is used to search MEDLINE. The search results are saved and imported into EndNote libraries. The citations are modified, exported to a Microsoft Access database, and published on the Web. Clinicians can use a Web browser to search the database. The bibliographic database contains 13,803 MEDLINE citations of outcome studies. Most searches take between four and ten seconds and retrieve between ten and 100 citations. The entire cost of the software is under $900. Locally maintained bibliographic databases can be created easily and inexpensively. They significantly extend the evidence-based health care services that libraries can offer to clinicians.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This dissertation examines the role of topic knowledge (TK) in comprehension among typical readers and those with Specifically Poor Comprehension (SPC), i.e., those who demonstrate deficits in understanding what they read despite adequate decoding. Previous studies of poor comprehension have focused on weaknesses in specific skills, such as word decoding and inferencing ability, but this dissertation examined a different factor: whether deficits in availability and use of TK underlie poor comprehension. It is well known that TK tends to facilitate comprehension among typical readers, but its interaction with working memory and word decoding is unclear, particularly among participants with deficits in these skills. Across several passages, we found that SPCs do in fact have less TK to assist their interpretation of a text. However, we found no evidence that deficits in working memory or word decoding ability make it difficult for children to benefit from their TK when they have it. Instead, children across the skill spectrum are able to draw upon TK to assist their interpretation of a passage. Because TK is difficult to assess and studies vary in methodology, another goal of this dissertation was to compare two methods for measuring it. Both approaches score responses to a concept question to assess TK, but in the first, a human rater assigns a score whereas in the second, a computer algorithm, Latent Semantic Analysis (LSA; Landauer & Dumais, 1997) assigns a score. We found similar results across both methods of assessing TK, suggesting that a continuous measure is not appreciably more sensitive to variations in knowledge than discrete human ratings. This study contributes to our understanding of how best to measure TK, the factors that moderate its relationship with recall, and its role in poor comprehension. The findings suggest that teaching practices that focus on expanding TK are likely to improve comprehension across readers with a variety of abilities.