968 resultados para Arquitectura baseada em modelos
Resumo:
A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.
Resumo:
Introdução: Embora alterações estruturais cerebrais na esquizofrenia venham sendo repetidamente demonstradas em estudos de ressonância magnética (RM), ainda permanece incerto se tais alterações são estáticas ou progressivas. Enquanto estudos longitudinais são tradicionalmente utilizados na avaliação da questão da progressão, estudos transversais de neuroimagem comparando diretamente pacientes com esquizofrenia crônica e de primeiro episódio a controles saudáveis têm sido bastante raros até o presente. Com o recente interesse em meganálises combinando dados multicêntricos de RM visando-se a maior poder estatístico, o presente estudo multicêntrico de morfometria baseada no voxel (VBM) foi realizado para avaliar os padrões de alterações estruturais cerebrais segundo os diferentes estágios da doença, bem como para avaliar quais (se alguma) dessas alterações se correlacionariam especificamente a moderadores clínicos potenciais, tais como exposição cumulativa a antipsicóticos, tempo de doença e gravidade da doença. Métodos: Selecionou-se uma ampla amostra de pacientes com esquizofrenia (161, sendo 99 crônicos e 62 de primeiro episódio) e controles (151) a partir de quatro estudos prévios de RM (1,5T) realizados na mesma região do Brasil. O processamento e análise das imagens foi realizado usando-se o software Statistical Parametric Mapping (SPM8) com emprego do algoritmo DARTEL (diffeomorphic anatomical registration through exponentiated Lie algebra). Os efeitos de grupo sobre os volumes regionais de substância cinzenta (SC) foram analisados através de comparações voxel-a-voxel por análises de covariância em modelos lineares gerais, inserindo-se, em todas as análises, o volume total de SC, protocolo do scanner, idade e sexo como variáveis de confusão. Por fim, foram realizadas análises de correlação entre os aludidos moderadores clínicos potenciais e os volumes cerebrais globais e regionais. Resultados: Os pacientes com esquizofrenia de primeiro episódio apresentaram reduções volumétricas sutis em comparação aos controles, em um circuito neural circunscrito e identificável apenas em análises SVC (small volume correction) [p < 0.05, com correção family-wise error (FWE)], incluindo a ínsula, estruturas têmporo-límbicas e corpo estriado. Os pacientes crônicos, por outro lado, apresentaram um padrão de alterações extensas comparativamente aos controles, envolvendo os córtices frontais orbitais, superiores e inferiores bilateralmente, córtex frontal médio direito, ambos os córtices cingulados anteriores, ambas as ínsulas, e os córtices temporais superior e médio direitos (p < 0.05, análises whole-brain com correção FWE). Foram encontradas correlações negativas significantes entre exposição cumulativa a antipsicóticos e volumes globais de SC e substância branca nos pacientes com esquizofrenia, embora as correlações com reduções regionais não tenham sido significantes. Detectaram-se, ainda, correlações negativas significantes entre tempo de doença e volumes regionais relativos da ínsula esquerda, córtex cingulado anterior direito e córtices pré-frontais dorsolaterais nas análises SVC para os grupos conjuntos (esquizofrenia crônica e de primeiro episódio). Conclusão: Os achados supracitados indicam que: a) as alterações estruturais associadas com o diagnóstico de esquizofrenia são mais disseminadas na forma crônica em comparação à de primeiro episódio; b) reduções volumétricas regionais em áreas específicas do cérebro podem variar em função do tempo de doença; c) a exposição cumulativa a antipsicóticos associou-se a alterações volumétricas globais, e não regionais
Resumo:
Atualmente, os valores intangíveis são cada vez mais importantes no processo gerencial de empresas e governos, implicando a necessidade de informações mais precisas. Dentre os ativos intangíveis mais importantes encontram-se as marcas. É por meio das marcas que os consumidores escolhem e memorizam suas compras, e assim destinam seu dinheiro para algo que possa solucionar problemas em suas vidas. Marcas são formas de empresas e países conseguirem se diferenciar no mercado competitivo globalizado, e estas últimas são denominadas marca-país. A marca-país é fonte de conhecimento e associações no mercado, e torna o país mais ou menos atraente para os estrangeiros. Para se medir o valor de uma marca-país (country brand equity) utilizamse métodos específicos. Essa métrica perceptual é uma construção de valores baseados na marca-país, como conhecimento, associações, imagem, qualidade percebida e lealdade. Este trabalho visa compor um modelo de mensuração de country brand equity aplicável à realidade brasileira. Para tanto foram apresentados diversos modelos de avaliação de marcas e marca-país, por serem complementares, e testados empiricamente. Os dois principais modelos utilizados neste trabalho foram o modelo de valor de marca de Yoo, Donthu e Lee (2000), e o modelo de valor de marca-país de Pappu e Quester (2010). Como o construto de valor de marca-país é derivado de dimensões formativas que o compõem, foram somadas nessa equação as dimensões de imagem baseada na personalidade (AAKER, 1997) e percepção de cultura (NEWMAN; NOLLEN, 1996; HOFSTEDE; BOND, 1984). Todas as variáveis e composições de dimensões foram avaliadas quanto à sua confiabilidade, linearidade, normalidade, heterocedasticidade, multicolinearidade, correlações, formação de fatores e, por fim, avaliadas em regressões e modelos de equações estruturais. Foram criados dezesseis (16) modelos iniciais, nos quais se avaliou o poder de explicação dos construtos com a variável dependente proposta por Zeugner-Roth, Diamantopoulos e Montesinos (2008). Verificou-se pouca variabilidade entre os modelos. Em seguida, foram elaborados mais oito (8) modelos com a proxy de valor de marca-país pela reputação de marca-país, proposta por Kang e Yang (2010), na qual se pôde observar que os modelos com maior número de dimensões se mostraram melhores para explicar a variável dependente. Além disso, verificou-se a importância das dimensões de imagem e percepção de cultura nesses construtos. Por fim, esta tese apresenta modelos mais consistentes de avaliação de marca-país.
Resumo:
En la presente tesis se propone un modelo de gestión de redes que incorpora en su definición la gestión y difusión masiva de la información sobre redes no propietarias como Internet. Este modelo viene a solucionar uno de los problemas más comunes para cualquier aplicación, tanto de gestión como de usuario, proporcionando un mecanismo sencillo, intuitivo y normalizado para transferir grandes volúmenes de información, con independencia de su localización o los protocolos de acceso. Algunas de las características más notables del modelo se pueden sintetizar en las siguientes ideas. La creación de herramientas siguiendo el modelo permite que los desarrolladores de aplicaciones puedan centrarse en la lógica de la aplicación, en lugar de tener que resolver, generalmente a medida, el problema de la transferencia de grandes volúmenes de información. El modelo se ha concebido para ser compatible con los estándares existentes, tomando como base el marco de trabajo definido por ISO/IEC para sistemas OSI. Para que la difusión de la información se realice de forma escalable y con el menor impacto posible sobre la red de comunicaciones se ha propuesto un método de difusión fundamentando en técnicas colaborativas y de multicast. Las principales áreas de aplicaciones del modelo se encuentran en: los sistemas de gestión como las copias de seguridad en red, sistemas para la continuidad en el negocio y alta disponibilidad o los sistemas de mantenimiento de redes de computadoras; aplicaciones de usuario como las aplicaciones eBusiness, sistemas de compartición de archivos o sistemas multimedia; y, en general, cualquier tipo de aplicación que conlleve la transferencia de importantes volúmenes de información a través de redes de área amplia como Internet. Los principales resultados de la investigación son: un modelo de gestión de redes, un mecanismo de difusión de la información concretado en un protocolo de transporte y otro de usuario y una librería que implementa los protocolos propuestos. Para validar la propuesta se ha construido un escenario de pruebas real y se ha implementado el prototipo de un sistema de recuperación integral de nodos basado en el modelo y utilizando las librerías creadas. Las pruebas de escalabilidad, carga y tiempos de transferencia realizados sobre el prototipo han permitido verificar la validez e idoneidad de la propuesta comprobando que su aplicación es escalable respecto del tamaño del sistema gestionado, sencillo de implantar y compatible con los sistemas existentes.
Resumo:
Comunicación presentada en las VIII Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2003, Alicante, 12-14 noviembre 2003.
Resumo:
El artículo es una descripción breve y un análisis diacrónico de tres modelos sucesivos de inserción de la universidad en el territorio de la ciudad. Se toman como referencia los casos de Madrid, Valencia y Alicante, cuyos orígenes se remontan a épocas diferentes y suceden bajo regímenes políticos diversos. En ellos se hace hincapié en la ubicación de las respectivas escuelas de arquitectura y sus implicaciones, con objeto de abarcar sus tres niveles: el del edificio, el de su entorno inmediato y el de la ciudad a la que pertenece.
Resumo:
Partiendo del marco legal que, en nuestro país, nos insta a la introducción de la perspectiva de género en los estudios superiores, como recordatorio, todavía necesario y, según muestra la realidad, al parecer insuficiente, nos planteamos ese auténtico reto, que lo es, además, de compromiso con la calidad de nuestra docencia, consistente en su inclusión en arquitectura, cuyos planes de estudios, articulados en tres bloques, propedéutico, técnico y proyectual, no contemplan asignaturas específicas de género, por lo que hemos de adoptar su inserción transversal y, de manera preferente, en el bloque proyectual, donde se halla el área de conocimiento de composición arquitectónica, cuyas relaciones con la historia, la teoría y la crítica de la arquitectura la hacen especialmente idónea para este cometido. Con el objetivo de esbozar un posible método de trabajo, nos preguntamos de dónde partimos en nuestra disciplina (sus referencias, sus modelos) y hacia dónde nos dirigimos (la arquitectura al servicio de la sociedad del siglo XXI), para exponer tanto algunas de las prácticas que llevamos a cabo como la valoración que de las mismas efectúa una muestra del alumnado, y concluir que nuestra experiencia al respecto nos permite afirmar que, bien planteada, la perspectiva de género deja de ser una asignatura pendiente en arquitectura para pasar a estar (o a eso aspiramos), docentes y discentes, pendientes de la asignatura.
Resumo:
Esta comunicación está basada en el análisis de los modelos estructurales existentes en la naturaleza como punto de partida de proyectos de estructuras en el ámbito de la arquitectura. Pretende resumir la forma de abordar el proyecto estructural arquitectónico desde la experimentación, desde la generación de la forma partiendo de procesos de autoformación y siendo acorde, en todo momento, con los planteamientos de las construcciones ligeras. Se plantea el análisis del comportamiento estructural de objetos de la naturaleza y la interpretación que de él han realizado arquitectos tan relevantes como Frei Otto, Antonio Gaudí o Bodo Rasch. En primer lugar se propone el estudio y análisis de una estructura ya proyectada y/o construida por arquitectos especialistas en el diseño de estructuras arquitectónicas. Este análisis se produce a través de la construcción de un modelo a escala. Posteriormente, se pide al alumno que proyecte una segunda maqueta en el que tenga que aplicar los conceptos extraídos del primer ejercicio, valorándolos y, en su caso, proponiendo mejoras. En el proceso de experimentación se trabaja sobre membranas, cáscaras, estructuras de tensegridad, neumáticas, óseas, de crecimiento fractal, en general, estructuras ligeras. En conclusión, establecer un procedimiento inverso, partir de la experimentación y, posteriormente, buscar las justificaciones teóricas. Este procedimiento permite al alumno conocer, de forma experimental, el comportamiento de los distintos tipos estructurales, cotejándolos con la carga teórica y siendo posible aplicarlo en futuros proyectos originales.
Resumo:
Se inicia un análisis de los procesos de trabajo de stop-motion porque ayudan a comprender las diferentes escalas en arquitectura donde las maquetas se convierten en futuros prototipos de infraestructuras de edificios o de paisaje. Stop motion es una técnica de animación fotograma a fotograma de objetos estáticos mediante la manipulación de figuras de plastilina en entornos fijos con cambios de luz, color y sonido. Igual que dicha técnica reúne lo mejor del rodaje tradicional -story board, escenografía, fotografía, personajes, iluminación- la animación de maquetas de interiores sintetiza micro-procesos de mayor repercusión -habitaciones con cambios de humedad, de temperatura, de ventilación y de iluminación- incorporando efectos especiales que son procesados digitalmente en post-producción. Se construyen varios prototipos de habitación con parámetros fijos como el tamaño y la posición de la cámara y otros variables como los materiales, los personajes y la iluminación. Representan un mundo en miniatura que intenta aportar un acercamiento sensorial y atmosférico analizando la magia y la fantasía que Junichirô Tanizaki describe en la penumbra de las construcciones tradicionales japonesas y estudiando las imperfecciones de los escenarios que Tim Burton manipula en su películas de animación con una textura que las tecnologías digitales no pueden igualar. El objetivo es utilizar una escala micro para realizar unos modelos interiores donde las condiciones atmosféricas están controladas y reducidas, y tomar datos que se podrían aplicar a un proceso de modelado a escala intermedia para testar prototipos de edificios como el túnel de viento; o, finalmente, a una escala macro con maquetas de un sector de la costa o de un río donde los fenómenos meteorológicos son los protagonistas para simular inundaciones y diseñar futuras medidas de prevención y seguridad.
Resumo:
En el presente trabajo realizamos un aproximación mediante el análisis basado en la sintaxis espacial aplicado al espacio doméstico de las sociedades de la edad del Hierro de la franja central de la Iberia Mediterránea, entre los siglos VI y III a. C. En una primera sección se introduce la importancia de la configuración de las casas para comprender la sociedad ibérica. A continuación seleccionamos algunos ejemplos de la mitad meridional del País Valenciano para realizar nuestro análisis. Se identifican de dos modelos espaciales claramente definidos. Por último se relacionan estos esquemas constructivos con los procesos de agregación de unidades familiares para constituir las comunidades ibéricas.
Resumo:
A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.
Resumo:
A significant observational effort has been directed to investigate the nature of the so-called dark energy. In this dissertation we derive constraints on dark energy models using three different observable: measurements of the Hubble rate H(z) (compiled by Meng et al. in 2015.); distance modulus of 580 Supernovae Type Ia (Union catalog Compilation 2.1, 2011); and the observations of baryon acoustic oscilations (BAO) and the cosmic microwave background (CMB) by using the so-called CMB/BAO of six peaks of BAO (a peak determined through the Survey 6dFGS data, two through the SDSS and three through WiggleZ). The statistical analysis used was the method of the χ2 minimum (marginalized or minimized over h whenever possible) to link the cosmological parameter: m, ω and δω0. These tests were applied in two parameterization of the parameter ω of the equation of state of dark energy, p = ωρ (here, p is the pressure and ρ is the component of energy density). In one, ω is considered constant and less than -1/3, known as XCDM model; in the other the parameter of state equantion varies with the redshift, where we the call model GS. This last model is based on arguments that arise from the theory of cosmological inflation. For comparison it was also made the analysis of model CDM. Comparison of cosmological models with different observations lead to different optimal settings. Thus, to classify the observational viability of different theoretical models we use two criteria information, the Bayesian information criterion (BIC) and the Akaike information criteria (AIC). The Fisher matrix tool was incorporated into our testing to provide us with the uncertainty of the parameters of each theoretical model. We found that the complementarity of tests is necessary inorder we do not have degenerate parametric spaces. Making the minimization process we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are m = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059. Performing a marginalization we found (68%), for the Model XCDM the best fit parameters are m = 0.28 ± 0, 012 and ωX = −1.01 ± 0, 052. While for Model GS the best settings are M = 0.28 ± 0, 011 and δω0 = 0.00 ± 0, 059.
Resumo:
Nowadays, the amount of customers using sites for shopping is greatly increasing, mainly due to the easiness and rapidity of this way of consumption. The sites, differently from physical stores, can make anything available to customers. In this context, Recommender Systems (RS) have become indispensable to help consumers to find products that may possibly pleasant or be useful to them. These systems often use techniques of Collaborating Filtering (CF), whose main underlying idea is that products are recommended to a given user based on purchase information and evaluations of past, by a group of users similar to the user who is requesting recommendation. One of the main challenges faced by such a technique is the need of the user to provide some information about her preferences on products in order to get further recommendations from the system. When there are items that do not have ratings or that possess quite few ratings available, the recommender system performs poorly. This problem is known as new item cold-start. In this paper, we propose to investigate in what extent information on visual attention can help to produce more accurate recommendation models. We present a new CF strategy, called IKB-MS, that uses visual attention to characterize images and alleviate the new item cold-start problem. In order to validate this strategy, we created a clothing image database and we use three algorithms well known for the extraction of visual attention these images. An extensive set of experiments shows that our approach is efficient and outperforms state-of-the-art CF RS.
Resumo:
El Centro Histórico de Cuenca tiene como actividades predominantes el comercio, la administración, gestión de servicios, entre otros. Sin embargo, el uso de vivienda se ha ido perdiendo a través de los años. Este abandono perjudica a toda la ciudad, puesto que las personas buscan establecer sus nuevos domicilios en zonas periféricas, ocasionando disgregación y dispersión espacial de actividades, alterando el correcto crecimiento de la ciudad. Así mismo, uno de los mayores problemas que enfrenta el Centro Histórico es el no poder desarrollarse como un organismo vivo, teniendo un uso combinado de vivienda y comercio, que permite que la zona esté activa todo el tiempo. La habitabilidad es fundamental para el mantenimiento y buena salud de los Centros Históricos. Cuenca no es la excepción y es necesario devolverle a esta zona de la ciudad una función residencial más intensa. Por estas razones y a manera de estudio, se ha decidido hacer un proyecto de diseño de modelos arquitectónicos de vivienda multifamiliar en predios vacíos del área de Primer Orden del Centro Histórico de Cuenca, no solo respetando la normativa municipal, sino también aplicando la normativa BACS ensamble!, desarrollada por el Departamento de Investigación Espacio y Población a través del grupo LlactaLab Ciudades Sustentables de la Universidad de Cuenca, que defiende la posibilidad de generar barrios compactos sustentables, en zonas consolidadas de la ciudad, que ayuden a construir un modelo de ciudad diferente a la actual, donde el ser humano sea el centro de reflexión.
Resumo:
Esta tese incide sobre o desenvolvimento de modelos computacionais e de aplicações para a gestão do lado da procura, no âmbito das redes elétricas inteligentes. É estudado o desempenho dos intervenientes da rede elétrica inteligente, sendo apresentado um modelo do produtor-consumidor doméstico. O problema de despacho económico considerando previsão de produção e consumo de energia obtidos a partir de redes neuronais artificiais é apresentado. São estudados os modelos existentes no âmbito dos programas de resposta à procura e é desenvolvida uma ferramenta computacional baseada no algoritmo de fuzzy-clustering subtrativo. São analisados perfis de consumo e modos de operação, incluindo uma breve análise da introdução do veículo elétrico e de contingências na rede de energia elétrica. São apresentadas aplicações para a gestão de energia dos consumidores no âmbito do projeto piloto InovGrid. São desenvolvidos sistemas de automação para, aquisição monitorização, controlo e supervisão do consumo a partir de dados fornecidos pelos contadores inteligente que permitem a incorporação das ações dos consumidores na gestão do consumo de energia elétrica; SMART GRIDS - COMPUTATIONAL MODELS DEVELOPMENT AND DEMAND SIDE MANAGMENT APPLICATIONS Abstract: This thesis focuses on the development of computational models and its applications on the demand side management within the smart grid scope. The performance of the electrical network players is studied and a domestic prosumer model is presented. The economic dispatch problem considering the production forecast and the energy consumption obtained from artificial neural networks is also presented. The existing demand response models are studied and a computational tool based on the fuzzy subtractive clustering algorithm is developed. Energy consumption profiles and operational modes are analyzed, including a brief analysis of the electrical vehicle and contingencies on the electrical network. Consumer energy management applications within the scope of InovGrid pilot project are presented. Computational systems are developed for the acquisition, monitoring, control and supervision of consumption data provided by smart meters allowing to incorporate consumer actions on their electrical energy management.