1000 resultados para Análisis de elemento finito
Resumo:
La hipótesis de esta tesis es: "La optimización de la ventana considerando simultáneamente aspectos energéticos y aspectos relativos a la calidad ambiental interior (confort higrotérmico, lumínico y acústico) es compatible, siempre que se conozcan y consideren las sinergias existentes entre ellos desde las primeras fases de diseño". En la actualidad se desconocen las implicaciones de muchas de las decisiones tomadas en torno a la ventana; para que su eficiencia en relación a todos los aspectos mencionados pueda hacerse efectiva es necesaria una herramienta que aporte más información de la actualmente disponible en el proceso de diseño, permitiendo así la optimización integral, en función de las circunstancias específicas de cada proyecto. En la fase inicial de esta investigación se realiza un primer acercamiento al tema, a través del estado del arte de la ventana; analizando la normativa existente, los componentes, las prestaciones, los elementos experimentales y la investigación. Se observa que, en ocasiones, altos requisitos de eficiencia energética pueden suponer una disminución de las prestaciones del sistema en relación con la calidad ambiental interior, por lo que surge el interés por integrar al análisis energético aspectos relativos a la calidad ambiental interior, como son las prestaciones lumínicas y acústicas y la renovación de aire. En este punto se detecta la necesidad de realizar un estudio integral que incorpore los distintos aspectos y evaluar las sinergias que se dan entre las distintas prestaciones que cumple la ventana. Además, del análisis de las soluciones innovadoras y experimentales se observa la dificultad de determinar en qué medida dichas soluciones son eficientes, ya que son soluciones complejas, no caracterizadas y que no están incorporadas en las metodologías de cálculo o en las bases de datos de los programas de simulación. Por lo tanto, se plantea una segunda necesidad, generar una metodología experimental para llevar a cabo la caracterización y el análisis de la eficiencia de sistemas innovadores. Para abordar esta doble necesidad se plantea la optimización mediante una evaluación del elemento acristalado que integre la eficiencia energética y la calidad ambiental interior, combinando la investigación teórica y la investigación experimental. En el ámbito teórico, se realizan simulaciones, cálculos y recopilación de información de distintas tipologías de hueco, en relación con cada prestación de forma independiente (acústica, iluminación, ventilación). A pesar de haber partido con un enfoque integrador, resulta difícil esa integración detectándose una carencia de herramientas disponible. En el ámbito experimental se desarrolla una metodología para la evaluación del rendimiento y de aspectos ambientales de aplicación a elementos innovadores de difícil valoración mediante la metodología teórica. Esta evaluación consiste en el análisis comparativo experimental entre el elemento innovador y un elemento estándar; para llevar a cabo este análisis se han diseñado dos espacios iguales, que denominamos módulos de experimentación, en los que se han incorporado los dos sistemas; estos espacios se han monitorizado, obteniéndose datos de consumo, temperatura, iluminancia y humedad relativa. Se ha realizado una medición durante un periodo de nueve meses y se han analizado y comparado los resultados, obteniendo así el comportamiento real del sistema. Tras el análisis teórico y el experimental, y como consecuencia de esa necesidad de integrar el conocimiento existente se propone una herramienta de evaluación integral del elemento acristalado. El desarrollo de esta herramienta se realiza en base al procedimiento de diagnóstico de calidad ambiental interior (CAI) de acuerdo con la norma UNE 171330 “Calidad ambiental en interiores”, incorporando el factor de eficiencia energética. De la primera parte del proceso, la parte teórica y el estado del arte, se obtendrán los parámetros que son determinantes y los valores de referencia de dichos parámetros. En base a los parámetros relevantes obtenidos se da forma a la herramienta, que consiste en un indicador de producto para ventanas que integra todos los factores analizados y que se desarrolla según la Norma UNE 21929 “Sostenibilidad en construcción de edificios. Indicadores de sostenibilidad”. ABSTRACT The hypothesis of this thesis is: "The optimization of windows considering energy and indoor environmental quality issues simultaneously (hydrothermal comfort, lighting comfort, and acoustic comfort) is compatible, provided that the synergies between these issues are known and considered from the early stages of design ". The implications of many of the decisions made on this item are currently unclear. So that savings can be made, an effective tool is needed to provide more information during the design process than the currently available, thus enabling optimization of the system according to the specific circumstances of each project. The initial phase deals with the study from an energy efficiency point of view, performing a qualitative and quantitative analysis of commercial, innovative and experimental windows. It is observed that sometimes, high-energy efficiency requirements may mean a reduction in the system's performance in relation to user comfort and health, that's why there is an interest in performing an integrated analysis of indoor environment aspects and energy efficiency. At this point a need for a comprehensive study incorporating the different aspects is detected, to evaluate the synergies that exist between the various benefits that meet the window. Moreover, from the analysis of experimental and innovative windows, a difficulty in establishing to what extent these solutions are efficient is observed; therefore, there is a need to generate a methodology for performing the analysis of the efficiency of the systems. Therefore, a second need arises, to generate an experimental methodology to perform characterization and analysis of the efficiency of innovative systems. To address this dual need, the optimization of windows by an integrated evaluation arises, considering energy efficiency and indoor environmental quality, combining theoretical and experimental research. In the theoretical field, simulations and calculations are performed; also information about the different aspects of indoor environment (acoustics, lighting, ventilation) is gathered independently. Despite having started with an integrative approach, this integration is difficult detecting lack available tools. In the experimental field, a methodology for evaluating energy efficiency and indoor environment quality is developed, to be implemented in innovative elements which are difficult to evaluate using a theoretical methodology This evaluation is an experimental comparative analysis between an innovative element and a standard element. To carry out this analysis, two equal spaces, called experimental cells, have been designed. These cells have been monitored, obtaining consumption, temperature, luminance and relative humidity data. Measurement has been performed during nine months and results have been analyzed and compared, obtaining results of actual system behavior. To advance this optimization, windows have been studied from the point of view of energy performance and performance in relation to user comfort and health: thermal comfort, acoustic comfort, lighting comfort and air quality; proposing the development of a methodology for an integrated analysis including energy efficiency and indoor environment quality. After theoretical and experimental analysis and as a result of the need to integrate existing knowledge, a comprehensive evaluation procedure for windows is proposed. This evaluation procedure is developed according to the UNE 171330 "Indoor Environmental Quality", also incorporating energy efficiency and cost as factors to evaluate. From the first part of the research process, outstanding parameters are chosen and reference values of these parameters are set. Finally, based on the parameters obtained, an indicator is proposed as windows product indicator. The indicator integrates all factors analyzed and is developed according to ISO 21929-1:2011"Sustainability in building construction. Sustainability indicators. Part 1: Framework for the development of indicators and a core set of indicators for buildings".
Resumo:
The objective of the project is the evaluation of the code STAR-CCM +, as well as the establishment of guidelines and standardized procedures for the discretization of the area of study and the selection of physical models suitable for the simulation of BWR fuel. For this purpose several of BFBT experiments have simulated provide a data base for the development of experiments for measuring distribution of fractions of holes to changes in power in order to find the most appropriate models for the simulation of the problem.
Resumo:
Se continuarán desarrollando y fortaleciendo las líneas de trabajo del grupo de Ecuaciones Diferenciales y Análisis de la FaMAF (Facultad de Matemática, Astronomía y Física) de la Universidad Nacional de Córdoba. Entre los problemas más estudiados en Análisis Armónico Clásico están los de determinar cuándo un operador de evolución es acotado de un espacio Lp en otro Lq. En el origen de esta teoría están los operadores clásicos, como la función armónica conjugada, los potenciales fraccionarios y las transformadas de Riesz. En los últimos años se ha puesto la atención en operadores con núcleos más singulares, como aquellos relacionados con la ecuación de ondas. Tratándose de operadores de convolución con medidas singulares y de soporte compacto, se utilizan técnicas más refinadas. (...) Nos proponemos analizar operadores de este tipo en el caso de que el soporte de m esté contenido en la superficie SÌIRn . Cuando la curvatura gaussiana de S es no nula en cada punto y m es la medida sobre IRn inducida por el elemento de área de S, la respuesta es conocida. Nuestro propósito es estudiar este problema para ciertas superficies S cuya curvatura gaussiana se anula en algunos puntos. En la próxima etapa nos proponemos tratar de generalizar el problema a dimensiones mayores (...). Por otro lado, se estudiarán algunas propiedades de las clases de pesos laterales. (...)
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Uno de los objetivos concretos de los remanentes radiculares tratados endodónticamente, es de servir como elemento de anclaje para una futura restauración protética. Si bien, todo tratamiento con pernos trae aparejado un cierto grado de debilitamiento tisular, es vital que este tipo de prótesis adapten correctamente, ya que de ellas depende la estabilidad y la permanencia de la consecuente corona en boca. Son muchas las causas que nos pueden llevar a la falta de ajuste y adaptación de nuestras restauraciones. En líneas generales, el Odontólogo generalista esta preocupado especialmente en lo referente al campo clínico, es decir, características anatómicas y fisiológicas del diente a tratar, longitud y diámetro canalicular, remanente coronario, particularidades del tejido duro de soporte, proximidad con el tejido blando, técnicas y materiales de impresión, etc. Cada uno de estos aspectos son de suma importancia para lograr el éxito de las restauraciones protéticas, pero si las técnicas o procedimientos de laboratorio no son cuidadosos, precisos y de alta fidelidad, los procedimientos clínicos pierden sustento y valor profesional. Es por ello que nos proponemos investigar específicamente en el área de laboratorio la posibilidad de utilizar variantes de la técnica convencional para la realización de pernos intraradiculares colados. Nuestra propuesta es la de realizar patrones sobre modelos sin la necesidad de ser separados del mismo para ser colados, a diferencia de la técnica convencional que si lo hace. El uso de material refractario en reemplazo del yeso dental, en el acto del vaciado de la impresión, nos proporciona esa ventaja, ya que de esta manera no es necesario introducir el material de confección del patrón en el interior del conducto que se encuentra en el modelo. En otras palabras, con esta técnica no habrá confección de patrón (en la porción “intraradicular” del perno) ya que la cavidad para el acceso del metal en el proceso de colado queda formada como consecuencia del vaciado con revestimiento sobre la impresión. (Método COPISMY, Técnica creada y diseñada por el responsable de la Cátedra y colaboradores). La disminución de los pasos secuenciales, la facilitación de la tarea técnica, la reducción del grado de manipulación de los materiales y la simplificación del proceso, son los fundamentos principales para alentar esta idea. Posteriormente, se llevará a cabo un estudio comparativo entre los resultados obtenidos en ambas técnicas, con el objetivo de establecer si tales variantes mejoran o no los valores de retención conocidos.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
Uno de los objetivos concretos de los remanentes radiculares tratados endodonticamente, es de servir como elemento de anclaje para una futura restauración protética. Si bien, todo tratamiento con pernos trae aparejado un cierto grado de debilitamiento tisular, es vital que este tipo de prótesis adapten y ajusten correctamente, ya que de ellas depende la estabilidad y la permanencia de la consecuente corona en boca. Son muchas las causas que nos pueden llevar a la falta de ajuste y adaptación de nuestras restauraciones, pero la técnica elegida para la preparación de la cavidad radicular, además del momento y el material con el que esta hecho el poste son 2 items fundamentales, para estudiar esta problemática. Actualmente existe un interesante debate a cerca de las ventajas de uno u otro sistema, en general esa discusión se centra en el análisis de las propiedades de uno u otro sistema, por ejemplo su modulo de elasticidad, su radiopacidad, su resistencia a la fractura, a la fatiga, su ventaja estética, etc. Pero hay un detalle, que por lo menos para nosotros es vital, la retención. En cuanto al diseño metodológico elegido para llevar a cabo este trabajo, se utilizaran 40 porciones radiculares a las que se les practicarán (con el mismo instrumento) cavidades con la finalidad de albergar postes intraradiculares. A las primeras 20 (codificadas) se le tomarán impresiones sectorizadas siguiendo posteriormente el protocolo correspondiente para la confección de postes post formados metálicos (colados) por método indirecto (Método COPISMY), luego de ser obtenidos, estos postes colados serán cementados a presión controlada sobre sus respectivas porciones radiculares. A las segundas 20 porciones (codificadas) se le cementarán también a presión controlada, postes prefabricados no metálicos, siguiendo los mismos pasos que para los colados. Posteriormente todas las muestras serán incluidas en cubos de resina transparente con la finalidad de practicarles cortes transversales para su posterior observación, medición y captura de imagen. Luego todos los valores numéricos obtenidos, serán sometidos a un estricto estudio estadístico para tratar de determinar si existen entre ambos grupos diferencias que puedan ser consideradas estadísticamente significativas.
Resumo:
En el anterior período de dos años, se ha estudiado la aplicación del método científico al análisis de falla de componentes, como una etapa de formación y capacitación en el método utilizado para la investigación de roturas o fallas de piezas o sistemas mecánicos. Ante la tendencia al desarrollo local de componentes, reemplazo de importaciones, se evidencia que no siempre ésta acción se realiza verificando todos los aspectos del elemento a desarrollar. Tanto el diseño, la materia prima, el método de producción, deben ser analizados detalladamente por su influencia en el comportamiento de cada elemento. Particularmente, en la pequeña y mediana empresa, que no dispone de respaldo técnico suficiente para cubrir todos los aspectos de un desarrollo, existe la necesidad de recurrir a proveedores externos por asesoramiento. La experiencia acumulada en el Análisis de Falla, ofrece un enfoque crítico ante los diferentes factores intervinientes en un componente que permiten predecir, con buena aproximación, los puntos débiles que posee tanto un diseño como un método de producción y de esta forma, aportar al desarrollo exitoso del producto.
Resumo:
El análisis de ácidos grasos es de gran interés para la industria cárnica por las implicaciones tecnológicas, nutricionales y sensoriales que se derivan de su composición (Nicolau y Kokotos, 2004; Sédébio y Christie, 1998; Livisay et al. 2000). Además se han estudiando de forma muy intensa la influencia del sexo, raza, peso y alimentación en la composición y distribución de los ácidos grasos tanto en el tejido muscular como en el subcutáneo (De Smet et al. 2004). La tendencia a modificar la composición de los ácidos grasos a través de la dieta ha motivado la necesidad de métodos de análisis más precisos y exactos para poder determinar la concentración de ácidos grasos, como por ejemplo algunos del tipo n-3: linolénico, eicosapentaenoico (EPA) y docosahexaenoico (DHA); y otros que han adquirido importancia tanto por sus propiedades en producción animal como por su efecto sobre la salud humana, como el CLA y los ácidos grasos trans. La separación de los isómeros del CLA es un análisis muy complejo y fundamental para poder calcular las concentraciones de los isómeros más activos (Winkler y Steinhart, 2001); esta dificultad se puede extender a los ácidos grasos trans de los ácidos grasos oleico, linoleico y linolénico. La forma más extendida de cálculo de la composición de ácidos grasos es la de los porcentajes normalizados. Sin embargo, cada vez es más importante el cálculo de las concentraciones de ácidos grasos lo que requiere la validación del método de modo más complejo. Los diferentes métodos de extracción pueden producir concentraciones diferentes, por ello es un aspecto a considerar como previo. El método de extracción más extendido, sin considerar el método oficial para la determinación de grasa total, es el descrito por Folch et al. 1957. Este método ha sido modificado con variantes pero que mantienen el mismo principio de extracción basado en la mezcla de cloroformo y metanol para poder extraer tanto lípidos neutros como polares. Dado el uso de cloroformo se han propuesto otras soluciones de extracción como el hexano:2- propanol, pero que no han sido aplicadas de modo importante. Una vez extraídos los lípidos se han de saponificar para liberar los ácidos grasos y a continuación formar los ésteres metílicos que se separaran mediante cromatografía de gases. Para producir los ésteres metílicos de los ácidos grasos existen varios métodos que ofrecen resultados comparables pero no completamente similares. Por lo cual este es otro elemento a considerar, sobre todo si se desea identificar ácidos grasos mediante cromatografía de gases acoplada a la espectrometría de masas (GC-MS).
Resumo:
Puede parecer una obviedad pero, aún así, resultaría pertinente comenzar nuestra comunicación expresando que religiones a nuestro alcance hay más de una. De entrada, nos damos cuenta de que el hecho de hablar de «religión» para referirnos al catolicismo, el budismo o el Islam representa una conquista cultural porque implica englobarlas a todas dentro de una misma categoría: Aquello que da sentido. Y hoy, más que en otras épocas, tenemos que hablar de religiones porque la realidad contemporánea lo exige al son de un pluralismo religioso que muestra cambios en el papel y resalta la importancia de las distintas formas de religiosidad. Simultáneamente a este hecho, parecería que se da una progresiva secularización de la sociedad, que paradójicamente cabe combinar con un incremento del número de creencias y una mayor difusión de éstas. Estos dos elementos, pluralismo y secularización, son el germen de un proyecto de investigación cuyos resultados pretendemos mostrar en esta ponencia. Dicho estudio se ha llevado a cabo por el grupo de investigación ISOR, Investigaciones en Sociología de la Religión de la Universidad Autónoma de Barcelona. El estudio perseguía justamente facilitar estrategias, instrumentos e información al personal de los centros educativos, para un reconocimiento mutuo entre los actores en situaciones de diversidad religiosa. El objetivo se enmarcaba en un interés más general: Demostrar hasta qué punto la pluralidad religiosa convierte las situaciones cotidianas y evidentes en situaciones “cuestionadas” que exigen adaptación. Este trabajo de investigación partió de un análisis exhaustivo de la diversidad religiosa en diferentes ámbitos educativos enfatizando tanto aquello que es evidente como lo que pasa desapercibido. La información utilizada procede de un análisis detallado de 26 entrevistas en profundidad realizadas a miembros de distintos centros educativos catalanes, seleccionados según los siguientes criterios: el tipo de centro (infantil, primaria, secundaria), la titularidad del centro (público, privado, concertado), la diversidad territorial, y la presencia proporcionalmente significativa de alumnado de tradiciones religiosas minoritarias. El resultado de nuestra investigación nos permite afirmar que, teniendo en cuenta sólo los elementos religiosos, podemos constatar que en la inmensa mayoría de las ocasiones la diversidad religiosa no plantea problemas graves en los centros educativos. Sin embargo, al tiempo que hacemos esta afirmación, no podemos obviar la generalización de un conjunto de situaciones potencialmente conflictivas por la diversidad religiosa y que, pese a todo, son invisibilizadas, entre otras razones, por el capital cultural de las familias, el dominio que éstos tienen del idioma, o la incomprensión de los códigos de relación.
Resumo:
Els Repositoris Institucionals suposen un element nou en l'entorn universitari pel que fa a la comunicació científica i a la presència digital de la producció de les universitats. Però l'entorn digital evoluciona molt ràpidament, així com els diferents agents implicats en la publicació científica. El canvi més important en la comunicació web que s'ha donat en els últims anys ha estat l'aparició dels serveis englobats sota l'etiqueta Web 2.0 en què s'inclouen diferents serveis per compartir enllaços, objectes digitals, gestionar relacions socials, reutilitzar informació, etc. Algunes publicacions científiques ja estan oferint aquest tipus de serveis. El present treball analitza el grau d'implantació d'aquest tipus de serveis en l'àmbit dels dipòsits institucionals espanyols. Per això en primer lloc s'identifiquen els tipus de serveis considerats 2.0 i que poden ser d'utilitat per a la comunicació científica. En segon lloc es comptabilitza quines d'aquestes possibilitats son ofertes pels repositoris i per últim s'analitzen els resultats per a comprovar les accions realitzades i identificar les possibles línies de millora.
Resumo:
Se presenta una aplicación basada en técnicas de estado-finito a los procesos de unificación de términos en español. Los algoritmos de unificación, o conflación, de términos son procedimientos computacionales utilizados en algunos sistemas de Recuperación de Información (RI) para la reducción de variantes de términos, semánticamente equivalentes, a una forma normalizada. Los programas que realizan habitualmente este proceso se denominan: stemmers y lematizadores. El objetivo de este trabajo es evaluar el grado de deficiencias y errores de los lematizadores en el proceso de agrupación de los términos a su correspondiente radical. El método utilizado para la construcción del lematizador se ha basado en la implementación de una herramienta lingüística que permite construir diccionarios electrónicos representados internamente en Transductores de Estado-Finito. Los recursos léxicos desarrollados se han aplicado a un corpus de verificación para evaluar el funcionamiento de este tipo de analizadores léxicos. La métrica de evaluación utilizada ha sido una adaptación de las medidas de cobertura y precisión. Los resultados muestran que la principal limitación del proceso de unificación de variantes de término por medio de tecnología de estado-finito es el infra-análisis.
Resumo:
A través de este proyecto final de carrera se pretende analizar la viabilidad técnica y económica para la puesta en marcha de un hotel de montaña en una comarca concreta del Pirineo Aragonés, como alternativa de negocio. Aunque no podemos olvidar que es un sector que puede parecer saturado, se tratará de buscar el elemento diferenciador para superar esta amenaza competitiva. Desde el año 2000, el número total de turistas que llegan a España, ha ido ascendiendo año a año, hasta alcanzar valores máximos en 2007 y de nuevo en 2013. Las estadísticas demuestran que es un sector al alza y en la comunidad aragonesa aporta al PIB aragonés, cerca de 3.000 millones de euros. Por otro lado, la crisis ha provocado una bajada importante en los precios de los inmuebles y parcelas, por lo que nos aprovecharemos de esta oportunidad de negocio. A través de otros estudios que implementan el trabajo, llegamos a los resultados del análisis que demuestran que la inversión es posible. La modalidad escogida para la construcción y diseño del hotel, el efecto diferenciador en los productos y servicios ofertados y la cercanía del hotel de las estaciones de esquí, hacen posible el sueño de los futuros promotores, que apuestan por un tipo de negocio sostenible e integrado en la naturaleza y que respete la autenticidad sociocultural de la comarca y el entono.
Resumo:
Analizar las EUM a través de la naturaleza e identidad jurídica de los centros; las funciones y competencias en la formación de maestros, así como las cualidades que debería primar; la estructura organizativa de un centro universitario cuya finalidad es la preparación del profesorado de la Educación Básica y Obligatoria. Establecer unas líneas generales que enmarquen una alternativa a la actual formación de maestros. Comparar la realidad con los deseos y planteamientos alternativos para realizar un juicio valorativo sobre lo que constituye un adelanto o atraso en la fase de formación inicial de maestros. Muestreo aleatorio, estratificado y proporcional según las situaciones académico-administrativa de profesores y alumnos de EUM, junto a la Comunidad Autónoma como delimitador de cuotas poblacionales. 185 sujetos con un grado de confianza del 95 por ciento y margen de error del +/-2,5. Se estudian las características personales de alumnos y profesores como la edad, sexo, nivel de estudios de los padres. Sus opiniones políticas y religiosas sus motivaciones y grado de satisfacción. Los puntos a tratar desde la óptica de profesores y alumnos son: la identidad de las funciones y competencias de la EUM, el currículo en la formación, la organización y funcionamiento y la autonomía de las EUM para decidir el plan de estudios, la contratación de profesorado, etc.. Encuesta a profesores y alumnos de EUM con ítems cerrados. Profesores y alumnos señalan y demandan una nueva concepción en la identidad jurídica de las EUM, planteando como sus funciones el capacitar didácticamente y ejercitar en la tarea investigadora. Las cualidades propias del maestro deben ser el espíritu de observación y análisis, tolerancia hacia modos de pensar y actuar y capacidad para establecer y mantener relaciones interpersonales positivas. El currículo debe ser integrado, capaz de unir la teoría y la práctica interdisciplinar, las prácticas deben ser un elemento intrínseco del currículo y son un elemento importante. Solicitan titulación superior, formación permanente, bibliotecas y seminarios o reuniones. Se da una alternativa a las EUM que los autores catalogan de coherente y moderadamente progresista y se observa un descontento por la poca importancia que se concede a las EUM y su profesorado. Se espera estar a tiempo para modificar actitudes para evitar el repliegamiento de las EUM y se piden hechos que concedan a estas EUM la importancia que merecen por ser las que forman a los futuros maestros.
Resumo:
Comprobar si en el idioma castellano se puede o no mantener el modelo de doble ruta y si este modelo puede ser visto y defendido desde un punto de vista evolutivo.. 237 alumnos de 1., 3. Y 6. de EGB pertenecientes a dos colegios públicos con integración de la zona educativa de Avilés. 1- Se analiza el comportamiento de los sujetos desde un punto de vista cuantitativo y cualitativo ante las variables: frecuencia y longitud de palabra, comportamiento ante palabras y no palabras, frecuencia grafémica posicional y absoluta y tipo de errores. 2- Se agrupa el análisis realizado para comprobar el comportamiento de cada uno de los grupos y si los modelos expuestos pueden explicarlo. 3- Se comprueba si existe una pauta diferenciada de grupo que pueda ser explicada por los modelos de doble ruta. 4- Se elabora un marco general con respecto al modelo de lectura que sirva como elemento de comparación al comportamiento individual de un sujeto con problemas lectores. Prueba de lectura con 144 estímulos. Análisis de tareas. Se combinan procedimientos experimentales y ciertos presupuestos teóricos que permiten realizar inferencias sobre determinados procesos cognitivos. Diseño factorial mixto con un factor entre sujetos (el curso) y tres factores intrasujeto (palabra, frecuencia y longitud). En los tres cursos, se comprueba que a mayor frecuencia de uso de la palabra, se da mayor exactitud lectora, si bien de forma diferencial en palabras y no palabras. Esto permite decir que las palabras se leen por la ruta léxica, mientras que las no palabras se leen por la no-léxica. Existe mayor número de errores en los estímulos de longitud larga con diferencias significativas. Es en los adjetivos donde se cometen más errores, no existiendo diferencias significativas en el resto de las clases de palabras. Se observa un aumento muy significativo de 1. a 6. en cuanto al número de lexicalizaciones realizadas; lo que indica que la ruta léxica va adquiriendo mayor importancia a medida que se sube de curso. Se comprueba que a mayor longitud, se da mayor número de lexicalizaciones. El fenómeno contrario a la lexicalización obtiene resultados inversos. El número de errores fonológicos disminuye de 1. a 6. Se presenta el estudio completo de un caso de dislexia evolutiva. Se puede defender un modelo evolutivo de doble ruta. Según cómo se produzca el proceso de enseñanza-aprendizaje se favorecerá o perjudicará el futuro aprendizaje. Se considera importante comenzar estimulando el desarrollo de la ruta fonológica. Se pone de manifiesto la validez del estudio de la lectura a partir del análisis de errores. Es importante asumir, junto a la metodología experimental, el estudio de casos.