20 resultados para Funciones de variables complejas

em Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Duración (en horas): De 21 a 30 horas. Nivel educativo: Grado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] A lo largo de la última década, se ha originado un importante debate acerca de lo que debe entenderse por valor de marca. En la delimitación de este concepto se han utilizado varias perspectivas de análisis y criterios de estimación muy diferentes, de ahí que aún exista sobre este tema una excesiva ambigüedad. En este trabajo se presenta un marco teórico donde se contemplan distintas perspectivas de estudio y varios criterios de estimación del valor de marca. A partir de este marco, se analizan empíricamente siete criterios de estimación de acuerdo con la información recogida de una muestra de usuarios sobre seis marcas de zapatillas de deporte. Con ello se pretende contribuir a un mejor conocimiento del concepto de valor de marca.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] El objetivo de este trabajo es establecer en qué medida los índices de riesgo país más utilizados por la comunidad económica y financiera internacional, en concreto, el índice de Euromoney y el ICRG, recogen las variables relevantes en el desencadenamiento de las crisis monetarias y financieras externas, como un aspecto básico en la evaluación de su capacidad para medir adecuadamente el riesgo de los diferentes países.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: Maladaptive behavior has been reported as a phenotypical feature in Prader–Willi syndrome (PWS). It severely limits social adaptation and the quality of life of children and adults with the syndrome. Different factors have been linked with the intensity and form of these behavioral disturbances but there is no consensus about the cause. Consequently, there is still controversy regarding management strategies and there is a need for new data. Methods: The behavior of 100 adults with PWS attending a dedicated center was assessed using the Developmental Behavior Checklist for Adults (DBC-A) and the PWS-specific Hyperphagia Questionnaire. The DBC-A was completed separately by trained caregivers at the center and relatives or caregivers in a natural setting. Genotype, gender, age, degree of obesity and cognitive impairment were analyzed as variables with a hypothetical influence on behavioral features. Results: Patients showed a relatively high rate of behavioral disturbances other than hyperphagia. Disruptive and social relating were the highest scoring DBC-A subscales whereas anxiety/antisocial and self-absorbed were the lowest. When hospital caregiver and natural caregiver scores were compared, scores for the latter were higher for all subscales except for disruptive and anxiety/antisocial. These effects of institutional management were underlined. In the DBC-A, 22 items have descriptive indications of PWS behavior and were used for further comparisons and correlation analysis. In contrast to previous reports, rates of disturbed behavior were lower in patients with a deletion genotype. However, the behavioral profile was similar for both genotypes. No differences were found in any measurement when comparing type I and type II deletions. The other analyzed variables showed little relevance. Conclusions: Significant rates of behavioral disorders were highlighted and their typology described in a large cohort of adults with PWS. The deletion genotype was related to a lower severity of symptoms. Some major behavioral problems, such as hyperphagia, may be well controlled if living circumstances are adapted to the specific requirements of individuals with PWS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El láser cladding es una tecnología en alza. Mediante la energía de una radiación láser, se crea un baño fundido de material que, combinado con la inyección de material en polvo a través de una boquilla y controlando el movimiento a través de la programación de una plataforma cinemática, ofrece la posibilidad de fabricar una geometría determinada mediante la adición de material. Se trata, sin embargo, de un proceso complejo en el que intervienen gran cantidad de fenómenos físicos y resulta complicado obtener un buen resultado en trayectorias complejas. En el presente trabajo se ha tratado el proceso de fabricación de una geometría compleja tipo álabe de turbina. Para ello, se ha comenzado por llevar a cabo una revisión bibliográfica, posteriormente, se han llevado a cabo una serie de ensayos experimentales para la determinación de parámetros de proceso, y finalmente, se ha desarrollado una estrategia de aporte original para estructuras tipo álabe que permite garantizar la estabilidad del proceso. En base a los resultados satisfactorios obtenidos, se ha concluido que mediante la aplicación de la nueva estrategia es posible la generación de geometrías complejas con alto grado de estabilidad.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[ES] Se propone en este trabajo un modelo de control borroso que ayude a filtrar y seleccionar las solicitudes de subvención que pueda recibir una institución pública en un programa de fomento para la creación y desarrollo de nuevas iniciativas empresariales. Creemos que la utilización de la lógica borrosa presenta ventajas sobre los procedimientos ordinarios ya que nos movemos en un escenario de actuación complejo y vago. El control borroso introduce el conocimiento de los expertos de un modo muy natural mediante variables lingüísticas y procesos de inferencia propios del lenguaje ordinario, lo que facilita la toma de decisiones en situaciones complejas. Nuestro modelo considera por un lado la idea empresarial y por otro la persona . Los indicadores y criterios que los expertos consideran relevantes para la evaluación de la subvención son modelados mediante variables lingüísticas y tratados como antecedentes y consecuentes de un motor de inferencia borroso, cuya salida nos proporciona la valoración final de la solicitud. Al final de nuestro trabajo resolvemos un caso práctico sencillo para aclarar el procedimiento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presentación de power point. Comunicación oral presentada en el 1er Simposium sobre Propiedades y Aplicaciones de MOFs y COFs, celebrado en Granada en abril de 2015

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gordon E. Moore, cofundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración [1]. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas deseadas. Hasta hace no muchos años, dichos dispositivos eran capaces de incorporar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. El presente proyecto tiene como objetivo construir un marco de fotos digital con reloj y despertador programable, valiéndose para ello de la FPGA Cyclone II de Altera y una pantalla táctil de la casa Terasic. Con este fin, se documentará en primera instancia los dispositivos a utilizar con sus características y posibilidades que plantean, para pasar posteriormente al diseño de la aplicación y su implementación e integración en la placa para comprobar su correcto funcionamiento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gordon E. Moore, co-fundador de Intel, predijo en una publicación del año 1965 que aproximadamente cada dos años se duplicaría el número de transistores presentes en un circuito integrado, debido a las cada vez mejores tecnologías presentes en el proceso de elaboración. A esta ley se la conoce como Ley de Moore y su cumplimiento se ha podido constatar hasta hoy en día. Gracias a ello, con el paso del tiempo cada vez se presentan en el mercado circuitos integrados más potentes, con mayores prestaciones para realizar tareas cada vez más complejas. Un tipo de circuitos integrados que han podido evolucionar de forma importante por dicho motivo, son los dispositivos de lógica programable, circuitos integrados que permiten implementar sobre ellos las funciones lógicas que desee implementar el usuario. Hasta hace no muchos años, dichos dispositivos eran capaces de implementar circuitos compuestos por unas pocas funciones lógicas, pero gracias al proceso de miniaturización predicho por la Ley de Moore, hoy en día son capaces de implementar circuitos tan complejos como puede ser un microprocesador; dichos dispositivos reciben el nombre de FPGA, siglas de Field Programmable Gate Array. Debido a la mayor capacidad y por lo tanto a diseños más complejos implementados sobre las FPGA, en los últimos años han aparecido herramientas cuyo objetivo es hacer más fácil el proceso de ingeniería dentro de un desarrollo en este tipo de dispositivos, como es la herramienta HDL Coder de la compañía MathWorks, creadores también Matlab y Simulink, unas potentes herramientas usadas ampliamente en diferentes ramas de la ingeniería. El presente proyecto tiene como objetivo evaluar el uso de dicha herramienta para el procesado digital de señales, usando para ello una FPGA Cyclone II de la casa Altera. Para ello, se empezará analizando la herramienta escogida comparándola con herramientas de la misma índole, para a continuación seleccionar una aplicación de procesado digital de señal a implementar. Tras diseñar e implementar la aplicación escogida, se deberá simular en PC para finalmente integrarla en la placa de evaluación seleccionada y comprobar su correcto funcionamiento. Tras analizar los resultados de la aplicación de implementada, concretamente un analizador de la frecuencia fundamental de una señal de audio, se ha comprobado que la herramienta HDL Coder, es adecuada para este tipo de desarrollos, facilitando enormemente los procesos tanto de implementación como de validación gracias al mayor nivel de abstracción que aporta.