916 resultados para Aplicaciones informáticas
Resumo:
La entrada en vigor del R.D. 635 del año 2006, sobre los requisitos mínimos de seguridad en túneles de carreteras establece la necesidad de profundizar en las características y prestaciones a exigir para los sistemas informáticos de control de ventilación en túneles tanto para las situaciones de servicio como de incendio. En general, este tipo de sistemas tienen como objetivo fundamental lograr la reducción de los tiempos de respuesta por parte de los sistemas y del personal de explotación, a la vez que aportar la mayor flexibilidad posible en las pautas de actuación manuales y automáticas. Sin embargo, las aplicaciones informáticas a implementar precisan tener en cuenta las diferencias en las tipologías de los sistemas de ventilación y las condiciones distintas que se pueden dar en la explotación del túnel, como por ejemplo, el tráfico denso o fluido en el interior del túnel en caso de incidente. Esto requiere estrategias de ventilación complejas que en algunos casos pueden ser predefinidas en el sistema de control. Con el objetivo de optimizar el funcionamiento de la ventilación es posible desarrollar algoritmos de control que establecen actuaciones sobre los distintos equipos en función de las condiciones previas al inicio del incidente pero también la evolución de las mismas durante el mismo. En consecuencia, el presente artículo intenta reflejar las tendencias y alternativas que puedan contemplarse para el control de los humos en caso de túneles planteados desde un punto de vista tanto teórico, en función de las recomendaciones internacionales, como práctico al incorporar resultados de medida in situ obtenidas en la verificación de sistemas de este tipo implementados sistemas de control de túneles en explotación.
Resumo:
Un acúfeno (tinnitus) es la percepción de un sonido en ausencia de estimulación acústica externa, es decir, la experiencia consciente de un sonido que se origina en la propia cabeza del paciente. En colaboración con el departamento de acústica (CAEND) del Consejo Superior de Investigaciones Científicas (CSIC), se pretende revertir (de forma paliativa) las molestias, con ayuda de terapias sonoras que estimulan el sistema auditivo. Primero, se analizan los tratamientos existentes que se utilizan para atender a los pacientes diagnosticados. Por último, se diseñan dos aplicaciones informáticas referentes a las terapias: Auditory Discrimination Training (ADT) y Enriched Acoustic Environment (EAE). Abstract Tinnitus is the perception of sound in the absence of external acoustic stimulation, in addition, the conscious experience a sound originating from the patient’s own head. In collaboration with the department of acoustic (CAEND) of the Consejo Superior de Investigaciones Científicas (CSIC), is to reverse (for palliation) discomfort, using sound therapies that stimulate the auditory system. First, we analyze the existing treatments are used to treat patients diagnosed. Finally, two applications are designed regarding therapies: Auditory Discrimination Training (ADT) and Enriched Acoustic Environment (EAE).
Resumo:
A raíz de la implementación de las Directivas Marco del Agua de la CE se han producido una serie de cambios conceptuales en el estudio del agua. Hoy en día, el agua necesita ser estudiada no sólo como agente a controlar, sino también como recurso a gestionar, como bien a valorar y como elemento básico del ecosistema a preservar. En esta nueva etapa que se abre son indispensables disciplinas también nuevas que capaciten a los técnicos encargados de esta gestión : conocimientos avanzados para entender el comportamiento no sólo de las aguas superficiales, sino también de las subterráneas, costeras y de transición, aplicaciones informáticas , nuevos procedimientos para el control de la escorrentía superficial y la conservación de suelos entre otras las nuevas técnicas de ordenación de cultivos, herramientas que permitan conocer el funcionamiento de los ecosistemas fluviales, técnicas para caracterizar y clasificar los regímenes hidrológicos, procedimientos para la obtención de series de caudales sintéticos , metodologías que permitan valorar el grado de alteración hidrológica y estrategias para la propuesta de medidas correctoras, protocolos de análisis de la calidad de los ecosistemas acuáticos, metodologías y técnicas fluviales, conocer e implementar técnicas de modelización del hábitat fluvial, estudio de los riegos de inundaciones, etc…Todo ello supone una nueva manera de entender la educación, la ingeniería y la política ambiental.
Resumo:
En el día a día y mantenimiento de una empresa o negocio, pronto surge la necesidad de gestionar y almacenar la información, y según va creciendo la cantidad de información relativa al negocio, es más importante o primordial la adopción de soluciones y/o aplicaciones informáticas que nos faciliten dichas labores. Años atrás, antes de que las aplicaciones informáticas estuvieran al alcance de todo tipo de negocios, no quedaba otra solución que almacenar grandes cantidades de información impresa, lo cual implica un gran esfuerzo y trabajo, disponer del espacio necesario y correr ciertos riesgos ante posibles errores o fallos en su gestión. Actualmente las aplicaciones informáticas están prácticamente al alcance de cualquier pequeña y mediana empresa. Con dichas aplicaciones conseguimos un gran almacenamiento, control y gestión de la información, y además se disminuye el esfuerzo humano, la necesidad de amplios almacenes, y probabilidad de errores en la gestión de dicha información. Pero no todo serán ventajas. Dependiendo del tipo y complejidad de la aplicación, se necesitará un personal más o menos especializado informáticamente, o bien la aplicación de una formación informática específica a aquel personal que la necesitase para poder manejar la aplicación correctamente. Por otro lado habría que invertir en la maquinaria adecuada para poder ejecutar la aplicación sin problemas, lo cual conlleva un coste y un futuro mantenimiento. Y además hay que ser conscientes que a partir del momento en que se informatiza un negocio, la empresa y el funcionamiento de la misma pasan a depender en mayor medida del correcto funcionamiento de una “máquina”, pero para ello existen sistemas y copias de seguridad que mitigan dichos riesgos. Es obvio que existen grandes ventajas y también ciertos riesgos, pero parece claro que una vez que se informatiza un negocio, el almacenamiento y gestión de la información es mucho más sencillo y ágil. Una vez decidida la informatización del negocio, hay que decidir si se acude a algunas de las soluciones informáticas que ya existen implementadas en el mercado, o bien se elige la solución de implementar una aplicación a medida según las necesidades y características del negocio. En función del tipo de negocio y los gustos del empresario, se adoptará por una solución u otra, siendo cualquiera de ellas totalmente válida. En el caso que nos aborda, acometeremos la informatización de un gimnasio que además ofertará como opción un servicio de guardería para los bebés de los clientes, para que de esta manera los clientes puedan realizar sus ejercicios físicos con total tranquilidad y despreocupación respecto a sus bebés. Los objetivos que se persiguen al informatizar el negocio son: -Agilizar, simplificar y potenciar la gestión de la empresa. -Reducir la cantidad de información impresa que se maneja actualmente. -Tener mayor control global del negocio. -Ofrecer mayor transparencia y velocidad de respuesta en la información proporcionada a los clientes. -Facilitar las posibles futuras ampliaciones del negocio. Para cumplir dichos objetivos se implementará una aplicación estructurada en los diferentes módulos que componen nuestro negocio, y a la vez tendrá un aspecto y funcionamiento muy homogéneo para facilitar su utilización y explotación.
Resumo:
Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.
Resumo:
Las tecnologías de la información y la comunicación están consiguiendo que la información geográfica sea asequible a un mayor número de profesionales a través de las Tecnologías de la Información Geográfica. La intervención multidisciplinar en el territorio enriquece la investigación y las formas de aplicación de este tipo de recursos tecnológicos. Pero esta facilidad tecnológica puede suponer el riesgo de un uso inadecuado, por falta de conocimientos técnicos adecuados a la complejidad de la información geográfica o por el mal uso de las aplicaciones informáticas. El trabajo catastral puede beneficiarse mucho del empleo de estas tecnologías de información geográfica, al facilitar el uso, la comunicación y su administración electrónica, pero el desconocimiento de las propiedades geométricas y topológicas de la información geográfica puede llevar a cometer errores de graves consecuencias a profesionales no especializados. En este artículo ofrecemos el resultado de la investigación del trabajo de diversos juristas y técnicos, con el objetivo de desarrollar métodos automatizados y aplicaciones informáticas que permitan a los especialistas no expertos en Cartografía usar este tipo de información con garantías de exactitud al más alto nivel, como una solución eficaz para que la información geográfica con calidad topológica enriquezca la seguridad jurídica en el tráfico inmobiliario.
Resumo:
En asignaturas fuertemente conceptuales, como la Mecánica del Suelo y de las Rocas, el alumno no es consciente de ello hasta que se decide a estudiar para poder superar una prueba parcial. Para entonces es demasiado tarde, razón por la cual se produce un elevado índice de fracasos en esta materia integrada en el Grado en Ingeniería Civil. Aprovechando que el alumnado actual es un usuario asiduo de los dispositivos móviles, mediante el empleo de las redes sociales, concretamente Twitter, se envía regularmente, casi a diario, tweets con “píndoles geotècniques” (píldoras geotécnicas en castellano) muy conceptuales y reducidas, con el fin de que el alumno, sin darse cuenta, asuma los conceptos más importantes de la asignatura. Al mismo tiempo, en muchos tweets se le redirige a una página web (El tauler geotècnic o el Tablón geotécnico en castellano) creada ex proceso para la asignatura, donde la información se amplía con material de apoyo mayoritariamente audiovisual, que es mejor asimilado por parte del alumnado. Además este sitio web dispone de pruebas de autoevaluación, enlaces con otras webs del ámbito de la Ingeniería del terreno, con información adicional, aplicaciones informáticas desarrolladas por los profesores del área o de libre acceso, etc.
Resumo:
El siguiente trabajo de fin de Master tiene como objetivo la realización de una traducción audiovisual al español de la serie americana de crimen Wicked City, en concreto de los dos primeros episodios de esta. El creciente desarrollo tecnológico sufrido en los últimos años así como el aumento en el número de producciones audiovisuales, ha colocado a la rama de la traducción audiovisual en una de las más demandadas hoy en día. Aun habiendo una gran cantidad de productos audiovisuales, sobre todo series y películas, que son importadas y exportadas y por lo tanto traducidas y adaptadas a la cultura receptora, siendo las más traducidas las estadounidenses, hay aun algunas que todavía no han sido objeto de este proceso. Y este es el caso de, por ejemplo, la serie elegida en este trabajo, Wicked City, que no ha sido oficialmente traducida al español. Por lo tanto, este trabajo propone una traducción para los dos primeros capítulos de esta serie, y dicha traducción es acompañada de un análisis de las prioridades y restricciones que se han seguido para llevarla a cabo, así como de una ejemplificación de las características específicas pertenecientes al género del crimen en esta serie concreta y de algunas de las técnicas de traducción usadas en el proyecto. La disertación se estructura en cinco partes aparte de la introductoria. La primera es un marco teórico sobre la traducción audiovisual y el género del crimen. En la segunda, se presenta la metodología usada para el proyecto. La tercera se centra en la traducción de la serie en sí. La cuarta es un análisis y discusión sobre la traducción. La quinta y última, está destinada a las conclusiones y sugerencias para investigación futura. En el marco teórico se define la traducción audiovisual como una traducción de cualquier producto audiovisual, ya sea de cine, televisión, teatro, radio, o de aplicaciones informáticas, siendo esta una disciplina relativamente nueva. Así mismo, también se da una vista general de todos los modos de traducción audiovisual, así como de las prioridades técnicas y lingüísticas de esta y la situación de la disciplina en el ámbito universitario español. También se comentan los aspectos más básicos del crimen ficticio así como las características de este género en las series televisivas. En la sección de metodología se explica que con el fin de llevar desarrollar el objetivo del trabajo, el primer paso a seguir fue, tras la visualización de la serie, el transcribir los diálogos de los dos episodios a un documento aparte, creando así lo que podríamos llamar el “script original”. Una vez hecho esto, se tradujeron ambos episodios al español. Seguidamente, se imprimó tal script para poder señalar todos los aspectos a discutir, es decir, las restricciones, las características del crimen de televisión y las técnicas de traducción. Finalmente, se llevó a cabo un análisis cualitativo de todos los aspectos mencionados previamente. Así bien, en la sección de análisis, se destaca que se llevó como prioridad el intentar conservar un lenguaje natural y no forzado. Para tal prioridad hay que tener en cuenta las restricciones que nos presenta la traducción: los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones. Además, esta serie presenta una serie de características pertenecientes al género del crimen que son las preguntas, la terminología específica, los marcadores pragmáticos y los “suavizadores” . Por último, para llevar a cabo la traducción se siguieron diversas técnicas, así como préstamo, traducción palabra por palabra, traducción literal, omisión, reducción, particularización, generalización, transposición, amplificación, variación, substitución y adaptación. Todos estos aspectos son ejemplificados con ejemplos extraídos de la traducción. Como conclusión, se resalta que una traducción audiovisual contiene mayormente dos tipos de restricciones: las técnicas y las lingüísticas. Las primeras van a estar especialmente ligadas a la modalidad de traducción audiovisual. Aunque en este trabajo la traducción no ha sido realizada con el fin de adaptarla a una modalidad específica, y por tanto las restricciones técnicas no suponen tantos problemas, es importante tener en cuenta la coherencia visual y auditiva, que de cierta manera van a condicionar la traducción. Así, a la hora de familiarizar, extranjerizar y naturalizar un término cultural, es importante mantener dichas coherencias. Por lo tanto, va a ser más fácil usar estas técnicas con un término que no aparece en pantalla. En cuanto a las restricciones lingüísticas, nos encontramos con los referentes culturales, los nombres propios, la intertextualidad, las unidades fraseológicas, las rimas, los calcos, las normas ortotipográficas, los diferentes acentos y las interjecciones, aspectos que el traductor tiene que cuidar especialmente. Finalmente, ya que ha sido muy poca la investigación realizada en el género del crimen desde un punto de vista traductológico, algunas líneas de estudio futuras podrían ser: estudiar en mayor profundidad las características que son específicas al genero del crimen, especialmente en las series de televisión; comparar estas características con las características de otro tipo de textos como por ejemplo la novela; estudiar si estas características especificas a un género condicionan de alguna manera la traducción, y si es así, hasta qué punto; y por último, determinar cómo una traducción puede ser diferente dependiendo del género, es decir, por ejemplo, si es de tipo romántico, de crimen, o de comedia.
Resumo:
En este proyecto se aplica la realidad aumentada, una tecnología en pleno desarrollo, para solucionar carencias comunicativas que se producen en la Universidad de la forma más eficaz y atractiva posible. Mediante el desarrollo de una aplicación móvil se orienta a los usuarios y se les proporciona la información necesaria para que los trámites sean sencillos y no lleven mucho tiempo
Resumo:
Hoy en día la cantidad de información de la que el mundo dispone es inmensa y la gran mayoría está al alcance de un click gracias a las tecnologías de la información. Muchos de los recursos que existen en Internet están escritos a mano por personas y para personas, pero este hecho tiene muchas limitaciones, como el idioma, el contenido, las expresiones en la comunicación o la disposición de la información en el texto. Todos estos factores influyen en el lector permitiendo entender mejor o peor los conceptos, relaciones e ideas que se expresan. Un ejemplo de un recurso muy utilizado a día de hoy es Wikipedia, que cuenta con más de cinco millones de artículos en inglés y más de un millón en otros doce idiomas entre los cuales se encuentran el castellano, el francés y el alemán. Por otro lado, existen otros recursos que aportan información de otras formas más interesantes desde el punto de vista de la informática, como pueden ser ConceptNet o WordNet. Las ventajas que ofrecen este tipo de recursos son que no disponen de varios lenguajes, es decir el conocimiento está unificado en uno solo, no tienen estructura de texto y se puede automatizar más fácilmente la inserción de nueva información, lo que se traduce en un crecimiento más rápido del conocimiento. Este tipo de recursos son ideales para su uso en aplicaciones informáticas gracias a que no es necesario un proceso de extracción de información de la fuente. Sin embargo, este tipo de información no está pensada para la lectura por parte de un humano, ya que se enfrentaría a muchos datos de golpe y sin un orden lógico para la comprensión, además de carecer de la conjugación propia o traducción a un idioma concreto. Este trabajo tiene como objetivo principal partir de un recurso de información no legible ni manejable por humanos e ideado para el uso por computadoras, y dar lugar a una interpretación de esta información que permita la lectura y comprensión en lenguaje natural por personas. Podemos verlo como un trabajo que posibilita y facilita el entendimiento Máquina-Hombre. Para ello se hace uso de un sistema de generación de lenguaje natural, inteligencia artificial y de la creatividad computacional. Además, este trabajo forma parte de un proyecto mayor, del que hablaremos en la sección 2.5, en el que se generan nuevos conceptos a partir de otros. El papel que desempeña esta aplicación permite describir los nuevos conceptos generados y poder entenderlos. A la hora de abordar el problema de la generación de texto podemos encontrar varias formas de atacar la cuestión, y todas las soluciones se pueden considerar como válidas. Se implementarán sistemas de diferente complejidad y naturaleza, como generadores básicos de textos o generadores con planificación y otras soluciones comunes en este campo como el uso de plantillas y el estudio de las propiedades de los textos generados por los humanos. Por esta razón, en este trabajo se desarrollarán varios métodos y se valorarán según ciertos criterios como la claridad del texto, su organización, o si se ha hecho un buen uso de la gramática o la ortografía. Como objetivos secundarios de este proyecto podemos remarcar la generación de un servicio web que permita que esté disponible la aplicación para su uso, y aporte valor tanto al mundo de la investigación como al del conocimiento. También se valora la semejanza a los generados por humanos.
Resumo:
Existen múltiples aplicaciones informáticas (Perea, 2008) para registrar conductas perceptibles que el desarrollo tecnológico actual ha posibilitado, pero la gran mayoría de los programas informáticos tienen problemas en facilitar la: observación, codificación, registro y análisis en contextos naturales; esto hace que dificulten la labor de los investigadores (Hernández-Mendo, Castellano, Camerino, Jonsson, Blanco-Villaseñor, Lopes, y Anguera, 2014). Este trabajo se inscribe en el marco de las investigaciones sobre software relacionados con la Metodología Observacional (Anguera y Hernández-Mendo, 2013, 2014, 2015). El objetivo general es el diseño e implementación de una herramienta que facilite la observación, codificación, registro y análisis de contextos naturales. Desarrollo Teórico HOISAN (Herramienta de observación de las interacciones en ambientes naturales) es una herramienta implementada haciendo uso de la plataforma .NET y del lenguaje C#, que nos ayuda en la tarea de observación, codificación, registro, descripción, manipulación y visionado de las conductas en el marco de la Metodología Observacional. Permite al usuario trabajar con varios tipos de datos (Bakeman y Quera, 1996). Por lo que respecta a la métrica del registro observacional se han calculado parámetros primarios y secundarios. El programa admite el intercambio de datos con programas específicos de uso en Metodología Observacional (SDIS-GSEQ, SAGT y THEME). Este programa satisface la vertiente más profesional al tiempo que la investigadora en su implementación. Hoisan permite un acercamiento a la Metodología Cualitativa con un carácter cuantitativo y mediante el análisis de los registros con producción verbal. Permite la estimación de la calidad del dato y realiza análisis secuencial de retardos y a partir de éste calcula los valores Z para un posterior análisis de coordenadas polares. Conclusiones El programa diseñado permite la realización de distintos cálculos de uso común en Metodología Observacional (MO) (Anguera y Hernández-Mendo, 2013, 2014, 2015). Esta característica hace al software Hoisan (Hernández-Mendo, López-López, Castellano, Morales-Sánchez y Pastrana, 2012) convertirse en una de las herramientas más completas para trabajar con MO en investigaciones de distintos ámbitos. Bibliografía Anguera, M.T. y Hernández-Mendo, A. (2013). La metodología observacional en el ámbito del deporte. E-balonmano.com: Revista de Ciencias del Deporte 9(3), 135-160. http://www.e-balonmano.com/ojs/index.php/revista/article/view/139. Anguera, M.T. y Hernández-Mendo, A. (2014). Metodología observacional y psicología del deporte: Estado de la cuestión. Revista de Psicología del Deporte, 23(1), 103-109. Anguera, M.T. y Hernández-Mendo, A. (2015). Técnicas de análisis en estudios observacionales en ciencias del deporte. Cuadernos de Psicología del Deporte, 15(1), 13-30. Bakeman, R. y Quera, V. (1996). Análisis de la interacción. Análisis secuencial con SDIS y GSEQ. Madrid: RA-MA. Hernández-Mendo, A., Castellano, J., Camerino, O., Jonsson, G., Blanco-Villaseñor, A., Lopes, A. y Anguera, M.T. (2014). Programas informáticos de registro, control de calidad del dato, y análisis de datos. Revista de Psicología del Deporte, 23(1), 111-121. Hernández-Mendo, A., López-López, J.A., Castellano, J., Morales-Sánchez, V. y Pastrana, J.L. (2012). HOISAN 1.2: Programa informático para uso en Metodología Observacional. Cuadernos de Psicología del Deporte, 12(1), 55- 78. Perea, A. (2008). Análisis de las acciones colectivas en el futbol de rendimiento. Tesis doctoral no publicada. San Sebastián: Universidad del País Vasco.
Resumo:
En la actualidad, la gestión de proyectos de investigación en la Universidad Complutense de Madrid se encuentra parcialmente automatizada o soportada mediante el uso de aplicaciones informáticas. No obstante, los procesos de justificación más habituales en la gestión económica de los proyectos de investigación (gestión de pagos / compras, gestión y justificación de viajes y gestión de material inventariable) se lleva a cabo en papel y manualmente. GesInv nace con objeto de facilitar y agilizar estos procesos que suponen una gran carga de trabajo a los investigadores y al personal administrativo debido a la gran cantidad de trámites que se gestionan en la UCM. GesInv proporciona un portal web que integra a todos los actores que están involucrados en los mencionados procedimientos, permitiendo la tramitación electrónica que disminuye los tiempos de tramitación y disminuye los errores cometidos al trasladar la información del papel a digital (como en la actualidad se lleva a cabo).
Resumo:
Los profesores de Química en la Universidad se encuentran con el problema del escaso interés que, en general, tienen los alumnos/as por esta materia, y sobre todo, los de las titulaciones de Ingeniería que se manifiesta, entre otros aspectos, en un bajo rendimiento académico. Esta falta de interés dificulta su aprendizaje significativo, provocando una adquisición mecánica de conocimientos y escasa retención. Además la Química no es una disciplina fácil. La Química es una ciencia experimental que supone el manejo de conceptos y principios de alto nivel de abstracción cuya comprensión ofrece severas dificultades a muchos estudiantes. La Química va desde un nivel microscópico (concepto de átomos, teorías atómicas, etc.) hasta la perspectiva macroscópica y simbólica (soluciones, equilibrios, etc.). Por todo ello, son numerosos los intentos para motivar al alumnado haciendo atractiva la Química mediante su acercamiento a situaciones cotidianas mostrando la importancia de la Química en nuestra sociedad, o mediante el uso de simulaciones o aplicaciones informáticas, TICs (Tecnologías de la Información y la Comunicación). La eficacia de estas experiencias va a depender de la conexión entre el fenómeno considerado, el fundamento científico del mismo y el nivel del alumno/a. Por otro lado, un ambiente de aprendizaje enriquecido con TIC juega un papel muy importante en la enseñanza de la Química, permitiendo a los estudiantes acercarse a conceptos más complejos. En este trabajo se presenta una investigación sobre el uso de los simuladores y videos sobre procesos de la vida cotidiana o profesional en los que se llevan a cabo procesos redox para favorecer el aprendizaje de las reacciones de oxidación-reducción. La investigación se ha realizado con estudiantes de la Universidad de Málaga, durante el curso 2015/16. Para estudiar el efecto del uso de las TIC sobre el proceso de aprendizaje los estudiantes de la asignatura cumplimentaron un cuestionario que consta de 10 preguntas, 8 redactadas en forma positiva y 2 en forma negativa, para evitar tendencias al responder. De los resultados obtenidos, la población estudiada considera útil el uso de la aplicación multimedia, aunque no para involucrarse en su estudio, sino para comprender la naturaleza. En líneas generales la mayoría de los alumnos/as encuestados prefiere el uso de las TICs como recurso a la enseñanza en detrimento a la lectura u otros métodos convencionales. Por ello, considera acertado su uso y, además, se muestra a favor de hacer extensivo este método en la enseñanza en otras ramas.
Resumo:
In this LBD, we present several Apps for playing while learning music or for learning music while playing. The core of all the games is based on the good performance of the real-time audio interaction algorithms developed by the ATIC group at Universidad de Ma ́laga (SPAIN).
Resumo:
Obtuvo la tercera mención de la modalidad B en el XII Certamen de Materiales Curriculares de 2004, organizado por la Consejería de Educación de la Comunidad de Madrid