23 resultados para Procesamiento electrónico de datos-Bancos y operaciones bancarias

em Universidade Complutense de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta memoria hacemos contribuciones dentro del campo de los lenguajes de bases de datos. Nos hemos propuesto tres objetivos fundamentales: 1. Mejorar la expresividad de los lenguajes de bases de datos actuales. 2. Desarrollar semánticas formales para nuestras propuestas de lenguajes de bases de datos extendidos. 3. Llevar a cabo la implementación de las semánticas anteriores en sistemas de bases de datos prácticos. Hemos conseguido estos tres objetivos en distintas áreas dentro de las bases de datos. Por un lado, en el campo de las bases de datos deductivas, proponemos HH:(C). Este lenguaje extiende las capacidades de los lenguajes de bases de datos deductivos con restricciones dado que permite consultas hipotéticas y cuanti cación universal. Por otro lado, utilizamos el estudio dentro de las bases de datos deductivas y lo aplicamos a las bases de datos relacionales. En concreto proponemos HR-SQL que incorpora consultas hipotéticas y de niciones recursivas no lineales y mutuamente recursivas. La idea tras esta propuesta es superar algunas limitaciones expresivas del lenguaje estándar de de nición de bases de datos SQL. A continuación introducimos ambas aproximaciones. Las fórmulas de Harrop hereditarias con restricciones, HH(C), se han usado como base para lenguajes de programación lógica con restricciones. Al igual que la programación lógica da soporte a lenguajes de bases de datos deductivas como Datalog (con restricciones), este marco se usa como base para un sistema de bases de datos deductivas que mejora la expresividad de los sistemas aparecidos hasta el momento. En el segundo capítulo de esta memoria se muestran los resultados teóricos que fundamentan el lenguaje HH:(C) y una implementación concreta de este esquema que demuestra la viabilidad y expresividad del esquema. Las principales aportaciones con respecto a Datalog son la incorporación de la implicación intuicionista, que permite formular hipótesis, y el uso de cuanti cadores incluso en el lenguaje de restricciones. El sistema está diseñado de forma que soporta diferentes sistemas de restricciones. La implementación incluye varios dominios concretos y también funciones de agregación y restricciones de integridad que son habituales en otros lenguajes de bases de datos relacionales. El signi cado del lenguaje se de ne mediante una semántica de pruebas y el mecanismo operacional se de ne mediante una sem ánica de punto jo que es correcta y completa con respecto a la primera. Para el cómputo de las consultas hipotéticas y de las funciones de agregación se hace uso de una noción de estrati cación más compleja que la que usa Datalog. La semántica de punto jo desarrollada constituye un marco apropiado que lleva a la implementación de un sistema concreto...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El análisis de datos actual se enfrenta a problemas derivados de la combinación de datos procedentes de diversas fuentes de información. El valor de la información puede enriquecerse enormemente facilitando la integración de nuevas fuentes de datos y la industria es muy consciente de ello en la actualidad. Sin embargo, no solo el volumen sino también la gran diversidad de los datos constituye un problema previo al análisis. Una buena integración de los datos garantiza unos resultados fiables y por ello merece la pena detenerse en la mejora de procesos de especificación, recolección, limpieza e integración de los datos. Este trabajo está dedicado a la fase de limpieza e integración de datos analizando los procedimientos existentes y proponiendo una solución que se aplica a datos médicos, centrándose así en los proyectos de predicción (con finalidad de prevención) en ciencias de la salud. Además de la implementación de los procesos de limpieza, se desarrollan algoritmos de detección de outliers que permiten mejorar la calidad del conjunto de datos tras su eliminación. El trabajo también incluye la implementación de un proceso de predicción que sirva de ayuda a la toma de decisiones. Concretamente este trabajo realiza un análisis predictivo de los datos de pacientes drogodependientes de la Clínica Nuestra Señora de la Paz, con la finalidad de poder brindar un apoyo en la toma de decisiones del médico a cargo de admitir el internamiento de pacientes en dicha clínica. En la mayoría de los casos el estudio de los datos facilitados requiere un pre-procesado adecuado para que los resultados de los análisis estadísticos tradicionales sean fiables. En tal sentido en este trabajo se implementan varias formas de detectar los outliers: un algoritmo propio (Detección de Outliers con Cadenas No Monótonas), que utiliza las ventajas del algoritmo Knuth-Morris-Pratt para reconocimiento de patrones, y las librerías outliers y Rcmdr de R. La aplicación de procedimientos de cleaning e integración de datos, así como de eliminación de datos atípicos proporciona una base de datos limpia y fiable sobre la que se implementarán procedimientos de predicción de los datos con el algoritmo de clasificación Naive Bayes en R.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El temblor esencial es la segunda enfermedad neurológica más frecuente, y en población anciana una de las más incapacitantes. En la actualidad ha crecido el debate sobre los problemas no motores asociados al temblor esencial, y han sido varios los estudios que han encontrado un rendimiento cognitivo bajo en los sujetos con temblor esencial en comparación con datos normativos y con controles. Pero estos estudios tienen un tamaño muestral pequeño o utilizan protocolos cognitivos breves. En este trabajo utilizamos una muestra mayor de sujetos con temblor esencial comparando su rendimiento cognitivo, su perfil de personalidad y puntuación en depresión con un grupo de sujetos sanos y con un grupo de enfermos de Parkinson, entidad que tiene características comunes con el temblor esencial. Los objetivos del presente estudio son describir el perfil cognitivo de los pacientes con temblor esencial, estudiar las variables de personalidad y los síntomas depresivos en comparación con el grupo control y el grupo de pacientes con Parkinson. Seleccionamos 96 sujetos, donde 32 sufren temblor esencial, 32 enfermedad de Parkinson y 32 sujetos sanos, homogéneos en edad, sexo y nivel educativo. Recogimos datos de diferentes variables médicas. Aplicamos una batería neuropsicológica completa que evaluaba funciones atencionales, visuoespaciales y ejecutivas, memoria verbal y visual y lenguaje, además de pasar un test de evaluación de alteraciones emocionales y de personalidad. Para los análisis estadísticos utilizamos el análisis de varianza para comparar entre grupos en las variables cuantitativas y el chi-cuadrado para las cualitativas. Aplicamos correlaciones para estudiar la relación de la gravedad y evolución de la enfermedad con los diferentes test. Y realizamos un modelo de regresión con los test como variable dependiente y las diferentes variables sociodemográficas como independientes. El resultado del estudio es que sí existen diferencias cognitivas entre los temblores esenciales y el grupo control, en diferentes dominios cognitivos: atención, funciones ejecutivas, memoria verbal y lenguaje. Pero no se observan diferencias en el rendimiento cognitivo al compararse con los sujetos con Parkinson. La puntuación del test de depresión no existen diferencias entre los grupos. En la escala de personalidad sí se observa que los sujetos con temblor esencial muestra más ansiedad y depresión que los sujetos control, mientras que solo se diferencian en la subescala de trastorno límite con los enfermos de Parkinson. Con estos resultados concluimos que existen diferencias entre los sujetos con temblor esencial y los sujetos sanos en el rendimiento cognitivo, por tanto, la enfermedad sí está influyendo en el rendimiento cognitivo de los pacientes con esta entidad. Pero no observamos diferencias cognitivas con los participantes con enfermedad de Parkinson por lo que ambas enfermedades tienen puntos en común, ya sea a nivel estructural cerebral o como otros autores defienden, sean entidades de un mismo continuo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A través de la realización de cuatro estudios basados en datos simulados y unidos por una preocupación común, aunque parcialmente independientes en su metodología y foco específico, esta tesis se plantea como objetivo general poner a prueba algunas de las ventajas que podría obtener un investigador aplicado al utilizar modelos clásicos de TRI frente a otras opciones, para de esta forma evaluar la posibilidad de obtener resultados relativamente equivalentes utilizando procedimientos alternativos. Específicamente, en esta tesis se pone a prueba: a) la calidad diferencial de las estimaciones de las propiedades de los ítems obtenidas por los procedimientos TRI frente a los factoriales; b) la validez de los procedimientos de escalamiento TRI frente a los de la TCT; y c) los límites de la propiedad de invarianza de las estimaciones de sujetos e ítems obtenidas con procedimientos TRI. La hipótesis general de esta tesis es que, en el tipo de condiciones en que se ha enfocado el estudio, las ventajas de utilizar modelos clásicos de TRI no serán demasiado amplias, con lo que existirán condiciones en las que emplear procedimientos alternativos será recomendable, dada su simplicidad relativa y su equivalencia de resultados. La primera investigación utiliza datos simulados para comparar las estimaciones de discriminación de ítems politómicos provenientes del AFI, frente a las posibles de obtener con distintas estrategias relacionadas con el análisis factorial clásico. La segunda investigación, también utiliza datos simulados para poner a prueba la equivalencia de las estimaciones de discriminación de los ítems obtenidas con los procedimientos TRI y AFI. La tercera investigación, utiliza dos estudios basados en datos simulados tanto para comparar los escalamientos de los sujetos obtenidos por la TRI y la TCT, como para aclarar las condiciones en que es posible esperar la presencia similitudes o diferencias entre ambos...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con unos días de diferencia las Salas de lo Civil y de lo Contencioso-Administrativo del Tribunal Supremo han realizado interpretaciones contradictorias del concepto de “responsable del tratamiento de datos personales” y su aplicación con respecto a la responsabilidad –civil y administrativa- derivada del incumplimiento de la legislación de datos personales por el buscador Google. Semejante resultado pone en riesgo la exigencia de interpretación uniforme de ese concepto autónomo de gran importancia en el Derecho de la UE en materia de protección de datos personales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, estudiar comunicación y, específicamente, periodismo es una necesidad, aunque, al mismo tiempo, es un desafío. Esto se justifica por el dinamismo del ecosistema mediático contemporáneo, que corresponde a los medios, a las tecnologías emergentes y a la sociedad, cada vez más participante de los procesos comunicacionales. De hecho, estas transformaciones han cambiado no sólo los procesos, sino, también, las componentes de los grupos profesionales que trabajan en la construcción de la noticia contemporánea, ahora convertida en multilenguaje y pensada para dispositivos antes no pensados, como los teléfonos móviles y las tabletas. Entre los cambios, se destaca el periodismo de datos que tiene en cuenta el fenómeno big data y los contenidos de información disponibles en la nube, informaciones muchas veces disfrazadas o desapercibidas entre contenidos no tan importantes. Para trabajar con estos contenidos y en escenarios emergentes binarios, se justifica la creciente participación de profesionales de las ciencias exactas y de las ingenierías en las salas de redacción de los medios, pues ahora es necesario pensar en la selección, limpieza y comprensión, además de construir el espacio de publicación bajo conceptos digitales para lo multiplataforma. Complementariamente, encontramos una sociedad cada vez más constructora de espacios y caminos para la circulación y retroalimentación de contenidos a través de los medios sociales, posicionándose estos como productores de contenido, es decir, en fuentes activas. Esta investigación de tesis doctoral se ha desarrollado con el objetivo de crear un medio social para el desarrollo del periodismo de datos que tiene como base conceptual la narrativa transmedia, los contenidos multiplataforma y el conectivismo, elementos clave para comprender las posibilidades y aprovechar el conocimiento colectivo disponible en la nube. Por tanto, se han compartido conocimientos y metodologías apropiadas para la investigación en los campos del periodismo y de la ingeniería, tornándose necesaria la inmersión en conceptos relacionados del periodismo, el periodismo de datos, lenguajes y la sociedad mediática para, al final, desarrollar un algoritmo bajo formato de diagrama de flujo, y sus respectivas interfaces, del medio social thirdnews, que sirviera como modelo de ejecución de programación del producto. Entre las metodologías adoptadas, se destacan la investigación bibliográfica y la investigación cuasi-experimental, que empieza a ser común en tesis sobre comunicación aplicada, además del concepto de modelaje de producto y el método Roadmap, utilizados con frecuencia en tesis de ingeniería de producción. Con las conclusiones de la tesis, se espera no sólo poner en práctica el desarrollo del medio social, sino, también, presentar reflexiones teóricas y prácticas sobre el periodismo de datos en las redacciones de los medios actuales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La cantidad de datos biológicos y médicos que se produce hoy en día es enorme, y se podría decir que el campo de las ciencias de la vida forma parte ya del club del Big Data. Estos datos contienen información crucial que pueden ayudar a comprender mejor los mecanismos moleculares en los sistemas biológicos. Este conocimiento es fundamental para el progreso en el diagnóstico y en el tratamiento de las enfermedades. La Bioinformática, junto con la Biología Computacional, son disciplinas que se encargan de organizar, analizar e interpretar los datos procedentes de la Biología Molecular. De hecho, la complejidad y la heterogeneidad de los problemas biológicos requieren de un continuo diseño, implementación y aplicación de nuevos métodos y algoritmos. La minería de datos biológicos es una tarea complicada debido a la naturaleza heterogénea y compleja de dichos datos, siendo éstos muy dependientes de detalles específicos experimentales. Esta tesis se basa en el estudio de un problema biomédico complejo: la menor probabilidad de desarrollar algunos tipos de cáncer en pacientes con ciertos trastornos del sistema nervioso central (SNC) u otros trastornos neurológicos, y viceversa. Denominamos a esta condición como comorbilidad inversa. Desde el punto de vista médico, entender mejor las conexiones e interacciones entre cáncer y trastornos neurológicos podría mejorar la calidad de vida y el efecto de la asistencia médica de millones de personas en todo el mundo. Aunque la comorbilidad inversa ha sido estudiada a nivel médico, a través de estudios epidemiológicos, no se ha investigado en profundidad a nivel molecular...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto pretende avanzar en el estado del arte de la investigación acerca de los Social Media en las áreas involucradas en aspectos como la detección de regularidades en entornos de los Social Media, la creación de modelos de crecimiento, evolución y propagación o, más en general, el descubrimiento de fenómenos interesantes en torno a la dinámica de los Social Media. Estas áreas abarcarán: La obtención de información mediante la minería del conjunto de datos procedentes de los Social Media, compuestos por contenidos, gente [datos de uso] e interacciones entre los mismos [redes sociales]. La construcción de conocimiento (modelos, métricas, etc.) a partir de la información obtenida mediante minería. El avance en la capacidad de acción en los Social Media mediante la simulación y experimentación con el conocimiento obtenido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito del presente trabajo es establecer si las sociedades cooperativas de ahorro y préstamo se hacen isomorfas a la banca formal en México; debido a que tales entidades tradicionalmente han operado en un entorno de informalidad, pero últimamente han transitado hacia la formalización como consecuencia de las exigencias legales impuestas por entidades regulatorias. Para este fin, el presente estudio se llevó a cabo con una orientación metodológica mixta, en la que los resultados obtenidos mediante técnicas cualitativas fueron confirmados con inferencias estadísticas basadas en pruebas de hipótesis. Con el enfoque cualitativo pudo establecerse que los administradores de las sociedades cooperativas de ahorro y préstamo en México, han centrado sus esfuerzos en cumplir con los ordenamientos normativos surgidos a partir de 2001, experimentando un isomorfismo coercitivo originado por las exigencias del Estado. Con las pruebas estadísticas se determinó que: a) No se detectan evidencias de isomorfismo en los montos de activos totales; b) Sí se encuentran rasgos de isomorfismo en la cartera total y en la captación total. Incluso, pudo observarse evidencia que sugiere que en estos indicadores algunas sociedades cooperativas presentan niveles más aceptables que algunos bancos; c) Finalmente, se determinó que el isomorfismo existente en el índice de morosidad se presenta en tres rangos diferenciados de las entidades estudiadas. En conclusión, es de preverse que las sociedades cooperativas de ahorro y préstamo en México sigan experimentando cambios impulsados por la regulación y el mercado, los cuales propiciarán que el isomorfismo mimético prevalezca entre ellas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo que pretende alcanzar esta investigación y la metodología que se va a utilizar conducen a un propósito: realizar un análisis de la Caja de Ahorros y Monte de Piedad del Círculo Católico de Obreros de Burgos –a lo largo de sesenta años– que ponga de relieve su impacto real sobre la sociedad en la que se instala y ayude a explicar su contribución en el devenir de la historia burgalesa de la segunda mitad del siglo XX. Aspira a presentar a la Institución como un síntoma, como la respuesta imprescindible de unas clases dirigentes necesitadas de instrumentos con los que construir un edificio económico–político y social acorde con el nuevo tiempo. La Caja de Ahorros nació, se instaló y se consolidó sustentada en tres anclajes: el marco legislativo e ideológico que fomentaba la creación de estas entidades benéfico-sociales, el soporte organizativo y doctrinal que le proporcionó el Círculo Católico y la institución eclesiástica, y el espacio socioeconómico y de poder del Burgos que transita entre la Restauración y el comienzo de la Dictadura. Se pretende establecer un diseño teórico que explique el verdadero alcance de la Institución: definir su contribución como agente del cambio o de la permanencia; la dimensión que adquiere como centro de poder; el peso y proyección política de sus dirigentes; la medida de su influencia ideológica, que cristaliza en el dibujo urbano o conformando mentalidades; y objetivar en cifras la verdadera eficacia de su compromiso económico y como agente de vertebración social. También evaluar las repercusiones que sus actuaciones tuvieron en la capital y el resto de la provincia, en todos los órdenes: conformación de las mentalidades, política local, ordenamiento urbano, tejido asociativo, educativo, institucional y, desde luego, en la construcción de un determinado modelo económico. De ahí el interés en tender relaciones y conexiones entre el Burgos decimonónico, el de la crisis finisecular y el de la posguerra. Y, en fin, entender cómo desde instituciones como el Círculo Católico y con instrumentos como su Caja de Ahorros se reconducen las mentalidades: para que las actitudes encajen en los moldes preparados al efecto, respecto a la familia, la propiedad, el orden, el trabajo, el dinero y el tiempo...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El movimiento de datos abiertos es relativamente nuevo, ofrece beneficios significativos a la sociedad y a la economía, promueve la democracia y la responsabilidad de los gobiernos públicos fomentando la transparencia, participación y colaboración de los ciudadanos. Por ser un movimiento relativamente nuevo, son los países que lideran el desarrollo quienes ya han implementado políticas de datos abiertos y ya disfrutan de sus beneficios; sin embargo, hay países en los que aún ni siquiera hay iniciativas de datos abiertos o aún están comenzando. En este trabajo se estudia el uso adecuado de buenas prácticas, normas, métricas y estándares para la implantación de datos abiertos de manera sostenible, automatizable y en formatos accesibles que garanticen la reutilización de los datos con el fin de generar valor a través de ellos, al crear nuevos productos y servicios que contribuyan a mejorar la calidad de vida de los ciudadanos. En ese sentido, se realiza un análisis exploratorio de los principios de datos abiertos, se realiza un análisis sobre la situación actual de iniciativas de datos abiertos, y con el fin de que el proyecto sea de máxima aplicabilidad, se realizan pruebas de la métrica Meloda 4.0 sobre conjuntos de datos del Ayuntamiento de Madrid. Se realiza un análisis y evaluación de los portales de datos abiertos de los Ayuntamientos de Madrid, Zaragoza y Barcelona basándose en la Norma UNE 178301:2015. En concordancia con la filosofía de datos abiertos, se estudia y sugiere el uso de tecnologías de código abierto para la publicación de datos abiertos. Finalmente, como resultado y aplicabilidad de todo lo aprendido, se propone el diseño de una metodología para publicación de datos abiertos orientada a entidades públicas que aún no tienen iniciativas o están comenzando a implementar políticas de datos abiertos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los primeros años de formación de un pianista es vital que el material que se utilice sea adecuado y progresivo, desde el punto de vista técnico, pero que además le aporte musicalmente una iniciación a las diferentes estéticas compositivas de los periodos históricos más representativos. A través de mi experiencia docente he observado que la música contemporánea apenas está presente en la formación reglada de los conservatorios en el Grado Elemental, que corresponde a los primeros cuatro años de estudio (de los ocho a los doce años aproximadamente). Por ello en la presente investigación se ha trabajado con obras españolas para piano pensadas para niños, editadas y compuestas entre 1975 y 2014. Se ha elegido el año 1975 como inicio del estudio por ser un punto de inflexión en la Historia de España. No obstante, se trata previamente el repertorio español para niños en el siglo XX hasta 1975 como contexto creativo previo. También se estudian las obras clave de la historia del repertorio pedagógico para niños, que son el punto de referencia en la formación de todo pianista, desde J. S. Bach, R. Schumann, C. Debussy o B. Bartók, así como otros compositores del siglo XX. Dentro del repertorio español infantil analizado se seleccionan aquellas obras que están editadas, y son accesibles, haciendo la investigación desde dos puntos de vista: 1. Analítico-histórico: importancia de la obra dentro de la producción del compositor a través de breves datos biográficos y catálogo de la producción para piano. 2. Pedagógico: importancia y adecuación de la obra dentro de la formación técnico-pianística en el Grado Elemental...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis, bajo el título Castilla y el Dominio del Mar en la Edad Media (1248-1476), quiere ofrecer una nueva perspectiva de la historia naval de Castilla, aplicando las idead y conceptos extraidos del pensamiento naval contemporáneo en uso. Para ello, y después de explicar lo que entendemos en este trabajo como Poder Naval, en la primera parte veremos las fuentes empleadas, esencialmente crónicas por ser las fuentes más apropiadas para el objetivo planteado, despuésn tras analizar el estado de la cuestión, se hara una revisión histórica del concepto teórico/práctico del Poder Naval, con especial atención en el caso de España. Posteriormente se fijarán una serie de elementos, funciones y características del Poder Naval. Con este punto de partida, se pasará a la segunda parte, en la cual se hará por una lado una visión del contexto geográfico en el que se enmarca el trabajo y después una historia naval de la Antigüedad tardía y de la Alta Edad Media en la Península Ibérica. Entraremos en la tercera parte de este trabajo en la que se realizará una visión cronológica de la historia naval castellana, aplicando los elementos, funciones y características del Poder Naval, dando lugar a una división de la historia naval castellana en nacimiento, auge y dominio, con diferentes límites cronológicos para los ámbitos geográficos del Atlántico y el Mediterráneo. Seguirá una revisión de los elementos materiales que hicieron posible la historia naval castellana. Estará enfocada en los puertos, las embarcaciones y los hombres. Tras esto, entraremos en la parte final del trabajo La última parte de esta tesis son las conclusiones. En ellas se recalca la importancia que para la denominada Reconquista tuvo la influencia de lo naval, proponiéndose una periorización y una revisión de cómo se usó el poder naval, que nos llevará a la consideración del siglo XIV como el gran siglo naval castellano, para después ver la influencia marítima y naval en el desarrollo político y económico de Castilla y su significación en la Edad Media hispana. Finaliza el trabajo con una serie de anexos que ofrecen la representación gráfica de datos e información significativa. El primero es una cronología de la historia naval castellana. Los anexos del 2 al 10 son empleados para analizar una serie de aspectos significativos usando datos numéricos y porcentuales. El ultimo anexo ofrece una visión rápida del número y tipo de embarcaciones en diferentes siglos...