999 resultados para collaborative piano


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los antecedentes del presente trabajo están basados en tareas y emprendimientos que llevan a concretar resultados en torno a la vida y obra del compositor argentino Honorio Mario Siccardi (1897-1963). Esta tesis fue defendida en el año 2009.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con la edición del presente trabajo entregamos a los estudiosos de la historia de la Música Argentina del Siglo XX, recopilación y digitalización de obras para voz y piano del compositor Honorio Mario Siccardi (1897-1963). Cabe mencionar que este trabajo se inicia en el año 2005 a partir del proyecto de investigación: “Música Argentina del Siglo XX. Obras para voz y piano de Honorio Siccardi", subsidiado por Secretaría de Ciencia, Técnica y Posgrado de la Universidad Nacional de Cuyo y continúa con mi tema de Tesis: “Obras para voz y piano de Honorio Siccardi: una aproximación analítica", en la Maestría en Arte Latinoamericano, defendida en marzo de 2009[418 páginas], en la misma Universidad. La documentación es relevada del archivo personal del compositor, situado en la Ciudad de Dolores en la provincia de Buenos Aires, el cual está bajo la supervisión y cuidado de su hijo Héctor Siccardi. Las partituras publicadas, con el consentimiento de las editoriales citadas y los herederos habientes, están agotadas (casi en su totalidad) o de difícil acceso, por lo tanto han sido incorporadas en este trabajo para completar el total de obras para voz y piano del compositor. El trabajo de digitalización de los manuscritos de las obras presentadas es realizado por las profesoras Verónica Cortes (Nº 4, 6, 7, 8, 9, 12, 16), María Emilia Greco (Nº 2, 3, 15, 17, 18, 19, 20, 21, 22 y 23) y Natacha Sánchez (Nº 1 y correcciones generales), integrantes del proyecto mencionado, egresadas y docentes de la Facultad de Artes y Diseño de la Universidad Nacional de Cuyo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Honorio Siccardi (1897-1963) es una figura destacada en el mundo musical argentino y latinoamericano por su múltiple actividad como docente y compositor. Se publica el Catálogo General de sus obras en 1993. Primer trabajo que nos da la posibilidad de conocer su producción artística, la cual consta de 270 obras de diversos géneros musicales y trabajos musicológicos. En el 2002-2004, se desarrolla el proyecto de investigación “Música argentina del siglo XX. Obras para piano de Honorio Siccardi.", subsidiado por Secretaría de Ciencia, Técnica y Posgrado de la UNCuyo, obteniendo como resultado un catálogo de obras para piano, documentación fehaciente que las contextualiza y análisis estilístico de obras seleccionadas, lo que nos permite demostrar la hipótesis propuesta: “Honorio Siccardi(1897-1963), compositor argentino del Siglo XX, desarrolla su estilo vanguardista en sus obras para piano". La publicación total de las obras para piano de Siccardi en: “Obras para piano de Honorio Siccardi. Música argentina del siglo XX" y la grabación de las mismas se concreta con la presentación del CD. “Honorio Siccardi. Obra integral para piano" 2007. Lo importante del enfoque y de los resultados esperados de este trabajo es el rescate, preservación, edición, grabación y difusión de las obras para piano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo tiene sus raíces en un Proyecto de Investigación iniciado en 1986 en la Universidad Nacional de Cuyo, dirigido por Guillermo Scarabino y secundado por un grupo de profesoras de la Escuela de Música de la Facultad de Artes. El mismo se propuso el estudio de los integrantes del Grupo Renovación cuya actividad se desarrolló entre 1929 y 1944. El campo de trabajo fue el compositor Luis Gianneo y su accionar dentro del Grupo. A partir de entonces quedó latente el interés por profundizar el estudio de la creación de este músico, más allá de esas fronteras, sobre todo porque se puede intuir que los recursos extraídos de las obras compuestas durante el periodo en que formó parte del Grupo (1931-1944) no eran transitorios sino estables y que respondían a un firme posicionamiento del artista que, además de un sólido manejo de los medios técnicos poseía firmes convicciones estéticas. Numerosos escritos dan cuenta de la gravitación que ejerció la figura de Luis Gianneo en el panorama de la música argentina, durante la primera mitad del siglo XX. En su mayoría se trata de trabajos dirigidos a relevar información relacionada con aspectos biográficos y la producción del compositor. En todos ellos la figura de Luis Gianneo resulta relevante en el panorama de la música nacional y en líneas generales, los historiadores lo califican como modelo de honestidad profesional, de solidez compositiva y de vocación de trabajo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En general, los compositores latinoamericanos no han gozado de reconocimiento y difusión, y muchas de sus obras se han extraviado o no han sido editadas. Objeto de estudio de esta investigación es poner luz sobre parte del patrimonio musical argentino, localizando, estudiando y catalogando la obra del compositor Gilardo Gilardi. En esta oportunidad, presentamos la primera catalogación de su música para piano. El mismo posibilita un mayor acercamiento y difusión de su obra pianística, y estimamos que motivará también futuras investigaciones sobre el total de su producción, con lo cual continuarán cubriéndose los vacíos existentes en la historia de la música argentina.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The goal of this paper is to show the results of an on-going experience on teaching project management to grade students by following a development scheme of management related competencies on an individual basis. In order to achieve that goal, the students are organized in teams that must solve a problem and manage the development of a feasible solution to satisfy the needs of a client. The innovative component advocated in this paper is the formal introduction of negotiating and virtual team management aspects, as different teams from different universities at different locations and comprising students with different backgrounds must collaborate and compete amongst them. The different learning aspects are identified and the improvement levels are reflected in a rubric that has been designed ad hoc for this experience. Finally, the effort frameworks for the student and instructor have been established according to the requirements of the Bologna paradigms. This experience is developed through a software-based support system allowing blended learning for the theoretical and individual?s work aspects, blogs, wikis, etc., as well as project management tools based on WWW that allow the monitoring of not only the expected deliverables and the achievement of the goals but also the progress made on learning as established in the defined rubric

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cultural content on the Web is available in various domains (cultural objects, datasets, geospatial data, moving images, scholarly texts and visual resources), concerns various topics, is written in different languages, targeted to both laymen and experts, and provided by different communities (libraries, archives museums and information industry) and individuals (Figure 1). The integration of information technologies and cultural heritage content on the Web is expected to have an impact on everyday life from the point of view of institutions, communities and individuals. In particular, collaborative environment scan recreate 3D navigable worlds that can offer new insights into our cultural heritage (Chan 2007). However, the main barrier is to find and relate cultural heritage information by end-users of cultural contents, as well as by organisations and communities managing and producing them. In this paper, we explore several visualisation techniques for supporting cultural interfaces, where the role of metadata is essential for supporting the search and communication among end-users (Figure 2). A conceptual framework was developed to integrate the data, purpose, technology, impact, and form components of a collaborative environment, Our preliminary results show that collaborative environments can help with cultural heritage information sharing and communication tasks because of the way in which they provide a visual context to end-users. They can be regarded as distributed virtual reality systems that offer graphically realised, potentially infinite, digital information landscapes. Moreover, collaborative environments also provide a new way of interaction between an end-user and a cultural heritage data set. Finally, the visualisation of metadata of a dataset plays an important role in helping end-users in their search for heritage contents on the Web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, Internet is a place where social networks have reached an important impact in collaboration among people over the world in different ways. This article proposes a new paradigm for building CSCW business tools following the novel ideas provided by the social web to collaborate and generate awareness. An implementation of these concepts is described, including the components we provide to collaborate in workspaces, (such as videoconference, chat, desktop sharing, forums or temporal events), and the way we generate awareness from these complex social data structures. Figures and validation results are also presented to stress that this architecture has been defined to support awareness generation via joining current and future social data from business and social networks worlds, based on the idea of using social data stored in the cloud.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Managing large medical image collections is an increasingly demanding important issue in many hospitals and other medical settings. A huge amount of this information is daily generated, which requires robust and agile systems. In this paper we present a distributed multi-agent system capable of managing very large medical image datasets. In this approach, agents extract low-level information from images and store them in a data structure implemented in a relational database. The data structure can also store semantic information related to images and particular regions. A distinctive aspect of our work is that a single image can be divided so that the resultant sub-images can be stored and managed separately by different agents to improve performance in data accessing and processing. The system also offers the possibility of applying some region-based operations and filters on images, facilitating image classification. These operations can be performed directly on data structures in the database.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper we present a heterogeneous collaborative sensor network for electrical management in the residential sector. Improving demand-side management is very important in distributed energy generation applications. Sensing and control are the foundations of the “Smart Grid” which is the future of large-scale energy management. The system presented in this paper has been developed on a self-sufficient solar house called “MagicBox” equipped with grid connection, PV generation, lead-acid batteries, controllable appliances and smart metering. Therefore, there is a large number of energy variables to be monitored that allow us to precisely manage the energy performance of the house by means of collaborative sensors. The experimental results, performed on a real house, demonstrate the feasibility of the proposed collaborative system to reduce the consumption of electrical power and to increase energy efficiency.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As the use of recommender systems becomes more consolidated on the Net, an increasing need arises to develop some kind of evaluation framework for collaborative filtering measures and methods which is capable of not only testing the prediction and recommendation results, but also of other purposes which until now were considered secondary, such as novelty in the recommendations and the users? trust in these. This paper provides: (a) measures to evaluate the novelty of the users? recommendations and trust in their neighborhoods, (b) equations that formalize and unify the collaborative filtering process and its evaluation, (c) a framework based on the above-mentioned elements that enables the evaluation of the quality results of any collaborative filtering applied to the desired recommender systems, using four graphs: quality of the predictions, the recommendations, the novelty and the trust.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recommender systems play an important role in reducing the negative impact of informa- tion overload on those websites where users have the possibility of voting for their prefer- ences on items. The most normal technique for dealing with the recommendation mechanism is to use collaborative filtering, in which it is essential to discover the most similar users to whom you desire to make recommendations. The hypothesis of this paper is that the results obtained by applying traditional similarities measures can be improved by taking contextual information, drawn from the entire body of users, and using it to cal- culate the singularity which exists, for each item, in the votes cast by each pair of users that you wish to compare. As such, the greater the measure of singularity result between the votes cast by two given users, the greater the impact this will have on the similarity. The results, tested on the Movielens, Netflix and FilmAffinity databases, corroborate the excellent behaviour of the singularity measure proposed.