942 resultados para categorization IT PFC computational neuroscience model HMAX


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aunque los conjuntos de vivienda social carecen en Europa de un nivel de protección patrimonial comparable a otras áreas urbanas, las negociaciones que surgen a raíz del anuncio de su remodelación o rehabilitación resultan inexplicables si no se supone su aceptación como patrimonio por parte de algunos de los actores implicados. Nos encontraríamos entonces no con un repertorio patrimonial consolidado, sino ante un proceso de patrimonialización, entendido no sólo como el paso de la categoría de no-patrimonio a la de patrimonio mediante la protección jurídica o urbanística, sino también como la construcción del consenso social suficiente en torno la posesión de ciertos valores preexistentes, así como la producción y reproducción social e histórica de estos valores. Ante el incipiente proceso de patrimonialización de determinados Barrios de Promoción Oficial madrileños, la tesis aborda dos cuestiones fundamentales, los mecanismos que conducen a su construcción social e histórica como nuevos elementos patrimoniales, y la evolución y estado actual del conjunto de elementos eventualmente patrimonializables, los Barrios de Promoción Oficial madrileños. De esta forma, propone un modelo teórico del proceso de patrimonialización de los conjuntos de vivienda social, basado en la identificación de discursos, valores, sujetos y etapas, así como de su relación con las características físicas y sociales originales de los barrios y su evolución hasta la actualidad. Para ello, se reconstruye la evolución física, social y de la protección patrimonial de los Barrios de Promoción Oficial madrileños, y se analizan tres procesos concretos de patrimonialización, la participación de la Colonia del Tercio y Terol en la defensa ciudadana de las Colonias Históricas madrileñas (1973-1979), la incorporación de criterios patrimoniales en la rehabilitación integral del Poblado Dirigido de Caño Roto (1991-2004), y la protección patrimonial como obstáculo para la remodelación de la U.V.A. de Hortaleza (2004-2015). ABSTRACT Comparatively speaking, few social housing estates are legally protected as cultural heritage in Europe. However, when a physical intervention is announced, the ensuing negotiation often defies explanation unless one assumes that the estate is regarded as cultural heritage by some of the players involved. Therefore, one should not so much talk of social housing as heritage, but of the process of patrimonialisation, which refers not only to the change of these estates from the status of non-heritage to that of cultural heritage through their legal recognition, but also to the process that leads to the acknowledgment of certain values in these estates, and even the social and cultural shaping of these values. This thesis tackles two main issues: the mechanisms that lead to the social and historical construction of new heritage elements or repertoires, and the evolution and current status of the Barrios de Promoción Oficial in Madrid. It proposes a theoretical model of the process of patrimonialisation of social housing estates, based on the identification of discourses, values, subjects and phases, as well as its relationship with the original physical and social features of these estates and their further evolution up to the present. In order to do so, the changes in the physical and social features of the Barrios de Promoción Oficial and in their heritage protection are reconstructed, and three particular processes are analysed. These are the role of Colonia del Tercio y Terol in the citizens’ movement for the preservation of the Colonias Históricas in Madrid (1973-1979), the incorporation of conservation criteria in the refurbishment of Poblado Dirigido de Caño Roto (1991-2004), and heritage as an obstacle to urban renewal in U.V.A. de Hortaleza (2004-2015).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The complete sequence of the Synechocystis chromosome has revealed a phytochrome-like sequence that yielded an authentic phytochrome when overexpressed in Escherichia coli. In this paper we describe this recombinant Synechocystis phytochrome in more detail. Islands of strong similarity to plant phytochromes were found throughout the cyanobacterial sequence whereas C-terminal homologies identify it as a likely sensory histidine kinase, a family to which plant phytochromes are related. An ≈300 residue portion that is important for plant phytochrome function is missing from the Synechocystis sequence, immediately in front of the putative kinase region. The recombinant apoprotein is soluble and can easily be purified to homogeneity by affinity chromatography. Phycocyanobilin and similar tetrapyrroles are covalently attached within seconds, an autocatalytic process followed by slow conformational changes culminating in red-absorbing phytochrome formation. Spectral absorbance characteristics are remarkably similar to those of plant phytochromes, although the conformation of the chromophore is likely to be more helical in the Synechocystis phytochrome. According to size-exclusion chromatography the native recombinant apoproteins and holoproteins elute predominantly as 115- and 170-kDa species, respectively. Both tend to form dimers in vitro and aggregate under low salt conditions. Nevertheless, the purity and solubility of the recombinant gene product make it a most attractive model for molecular studies of phytochrome, including x-ray crystallography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há mais de uma década o controle dos níveis de preço na economia brasileira é realizado dentro do escopo do Regime de Metas de Inflação, que utiliza modelos macroeconômicos como instrumentos para guiar as tomadas de decisões sobre política monetária. Após um período de relativo êxito (2006 - 2009), nos últimos anos apesar dos esforços das autoridades monetárias na aplicação das políticas de contenção da inflação, seguindo os mandamentos do regime de metas, esta tem se mostrado resistente, provocando um debate em torno de fatores que podem estar ocasionando tal comportamento. Na literatura internacional, alguns trabalhos têm creditado aos choques de oferta, especialmente aos desencadeados pela variação dos preços das commodities, uma participação significativa na inflação, principalmente em economias onde os produtos primários figuram como maioria na pauta exportadora. Na literatura nacional, já existem alguns trabalhos que apontam nesta mesma direção. Sendo assim, buscou-se, como objetivo principal para o presente estudo, avaliar como os choques de oferta, mais especificamente os choques originados pelos preços das commodities, têm impactado na inflação brasileira e como e com que eficiência a política monetária do país tem reagido. Para tanto, foi estimado um modelo semiestrutural contendo uma curva de Phillips, uma curva IS e duas versões da Função de Reação do Banco Central, de modo a verificar como as decisões de política monetária são tomadas. O método de estimação empregado foi o de Autorregressão Vetorial com Correção de Erro (VEC) na sua versão estrutural, que permite uma avaliação dinâmica das relações de interdependência entre as variáveis do modelo proposto. Por meio da estimação da curva de Phillips foi possível observar que os choques de oferta, tanto das commodities como da produtividade do trabalho e do câmbio, não impactam a inflação imediatamente, porém sua relevância é crescente ao longo do tempo chegando a prevalecer sobre o efeito autorregressivo (indexação) verificado. Estes choques também se apresentaram importantes para o comportamento da expectativa de inflação, produzindo assim, uma indicação de que seus impactos tendem a se espalhar pelos demais setores da economia. Através dos resultados da curva IS constatou-se a forte inter-relação entre o hiato do produto e a taxa de juros, o que indica que a política monetária, por meio da fixação de tal taxa, influencia fortemente a demanda agregada. Já por meio da estimação da primeira função de reação, foi possível perceber que há uma relação contemporânea relevante entre o desvio da expectativa de inflação em relação à meta e a taxa Selic, ao passo que a relação contemporânea do hiato do produto sobre a taxa Selic se mostrou pequena. Por fim, os resultados obtidos com a segunda função de reação, confirmaram que as autoridades monetárias reagem mais fortemente aos sinais inflacionários da economia do que às movimentações que acontecem na atividade econômica e mostraram que uma elevação nos preços das commodities, em si, não provoca diretamente um aumento na taxa básica de juros da economia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde seu lançamento, em 2002, a Norma IEC 61850 vem evoluindo para se tornar o padrão adotado nos Sistemas de Automação de Subestações. Dentre seus vários aspectos, destacam- se os serviços de tempo real, que permitem a implementação de funções de automação e de proteção dentro da subestação através da troca de mensagens específicas entre Dispositivos Eletrônicos Inteligentes através de um barramento digital de rede de dados. O objetivo central deste trabalho é explorar algumas das questões que envolvem a implementação de uma classe de serviços de tempo real: a transmissão de valores amostrados através de Serviços SMV, definidos pela Norma IEC 61850-9. Primeiramente, apresenta-se um breve resumo das principais características da Norma IEC 61850 que possibilitam o atendimento dos três requisitos por ela estabelecidos como base: a interoperabilidade entre dispositivos de diferentes fabricantes, a versatilidade na configuração e reconfiguração do Sistema de Automação da Subestação, e a possibilidade de implementação de novas tecnologias. Em seguida, explora-se com maior profundidade todos os aspectos relevantes à implementação dos Serviços SMV. Devido à complexidade deste assunto, o autor propõe abordá-lo sob a ótica de cinco tópicos interdependentes: variações da Norma IEC 61850-9, confiabilidade do barramento de processo, sincronismo de tempo, análise da qualidade da medição e segurança cibernética. Com base nos resultados apresentados neste estudo, propõem-se duas plataformas, um protótipo de Transformador de Potencial Óptico e um protótipo de Relé de Proteção Diferencial para transformadores de potência, com o objetivo de explorar alguns dos aspectos pertinentes à implementação de um barramento de processo de acordo com a Norma IEC 61850-9. Também foram realizados testes de geração e transmissão de mensagens contendo valores de amostras de tensão/corrente do sistema elétrico (denominadas de SV Messages) com a finalidade de implementá-las de fato e avaliar as ferramentas de mercado disponíveis. Por fim foi proposto um modelo para a simulação do sistema de potência em conjunto com a rede de comunicação utilizando o programa Matlab/Simulink. O autor espera que este trabalho contribua para esclarecer os vários conceitos envolvidos na implementação do barramento de processo definido pela Norma IEC 61850-9, auxiliando na pesquisa e no desenvolvimento de novas ferramentas e dispositivos, e no aprimoramento da Norma IEC 61850.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma discussão sobre o estudo dos efeitos térmicos e elásticos decorrentes da pressão de sustentação presentes nos mancais. Para tanto, propõe-se um modelo matemático baseado nas equações para mancais curtos considerando a região de cavitação e utilizando o princípio da continuidade de massa. Com isto, deduzem-se as equações para o mancal a partir das equações de Reynolds e da energia, aplicando uma solução modificada para a solução de Ocvirk, sendo as equações resolvidas numericamente pelo Método das Diferenças Finitas. Somado o tratamento de mecânica dos fluidos, o trabalho discute dois modelos térmicos de previsão de temperatura média do fluido e sua influência no campo de pressão, apresentando gráficos representativos do campo de pressão e de temperatura, assim como as diferenças e implicações das diferenças. Para o cálculo de deformação da estrutura, utiliza-se um Modelo de Elementos Finitos para uma dada geometria, fazendo-se uma avaliação da variação do campo de pressão e o quanto essa diferença afeta as demais propriedades do fluido. Por fim, com o modelo completo, calcula-se o quanto esse modelamento para mancais curtos se aproxima de soluções para mancais finitos, com base em resultados da literatura, chegando a desvios quase oito vezes menores que os previstos pela literatura. Além disso, pode-se estabelecer a abrangência do modelo, ou seja, prever as condições em que suas propriedades são válidas e podem ser utilizadas para estudos iniciais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent federal incentives and increased demand for home photovoltaic and small wind electrical systems highlights the need for consistent zoning ordinances and guidance materials for Northglenn residents. This Capstone Project assesses perceived impacts related to renewable energy systems, like noise, safety, aesthetics, and environmental considerations, and provides a model ordinance intended to mitigate these issues. It was concluded a model ordinance would ease and stimulate additions of alternative energy systems in Northglenn. Additionally, this research concluded development of public information could stimulate homeowners into positive decisions. The project also identifies potential financial and environmental benefits of installing such systems in an effort to promote sustainable and clean energy production within the city.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Customizing shoe manufacturing is one of the great challenges in the footwear industry. It is a production model change where design adopts not only the main role, but also the main bottleneck. It is therefore necessary to accelerate this process by improving the accuracy of current methods. Rapid prototyping techniques are based on the reuse of manufactured footwear lasts so that they can be modified with CAD systems leading rapidly to new shoe models. In this work, we present a shoe last fast reconstruction method that fits current design and manufacturing processes. The method is based on the scanning of shoe last obtaining sections and establishing a fixed number of landmarks onto those sections to reconstruct the shoe last 3D surface. Automated landmark extraction is accomplished through the use of the self-organizing network, the growing neural gas (GNG), which is able to topographically map the low dimensionality of the network to the high dimensionality of the contour manifold without requiring a priori knowledge of the input space structure. Moreover, our GNG landmark method is tolerant to noise and eliminates outliers. Our method accelerates up to 12 times the surface reconstruction and filtering processes used by the current shoe last design software. The proposed method offers higher accuracy compared with methods with similar efficiency as voxel grid.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: la presente investigación está orientada a ofrecer un análisis donde se establezcan los recursos lingüísticos utilizados por los participantes sobre el contenido y alcance de la prestación básica de información y orientación en los servicios sociales comunitarios, tal como la desarrollan los trabajadores sociales. Material y métodos: siguiendo una metodología cualitativa y la utilización del análisis del discurso en la propuesta de Wetherell y Potter (1996) con el empleo de la herramienta analítica de los repertorios interpretativos, se intentarán resaltar aquellos elementos definitorios, estrategias profesionales, valores, normas, prácticas organizacionales, elementos de la cultura institucional, entre otros, que dan forma a los escenarios donde desarrollan su labor los profesionales y que configuran el sistema de servicios sociales comunitarios. Resultados: las entrevistas realizadas a veinticinco trabajadores sociales de la provincia de Málaga muestran cuatro repertorios interpretativos que reflejan la construcción del sistema de servicios sociales por parte de los profesionales implicados: el olvido de lo comunitario, la eterna indefinición del sistema, el elefante encadenado y la escasez agudiza el ingenio. Discusión: se pone de manifiesto cómo se construye un modelo de intervención distante a lo establecido en las normas y códigos éticos a causa de los comportamientos organizacionales e institucionales, que los profesionales intentan minimizar mediante la puesta en práctica de habilidades personales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Purple acid phosphatases are metal-containing hydrolases. While their precise biological role(s) is unknown, the mammalian enzyme has been linked in a variety of biological circumstances (e.g., osteoporosis) with increased bone resorption. Inhibition of the human enzyme is a possible strategy for the treatment of bone-resorptive diseases such as osteoporosis. Previously, we determined the crystal structure of pig purple acid phosphatase to 1.55 Angstrom and we showed that it is a good model for the human enzyme. Here, a study of the pH dependence of its kinetic parameters showed that the pig enzyme is most efficient at pH values similar to those encountered in the osteoclast resorptive space. Based on the observation that phosphotyrosine-containing peptides are good substrates for pig purple acid phosphatase, peptides containing a range of phosphotyrosine mimetics were synthesized. Kinetic analysis showed that they act as potent inhibitors of mammalian and plant purple acid phosphatases, with the best inhibitors exhibiting low micromolar inhibition constants at pH 3-5. These compounds are thus the most potent organic inhibitors yet reported for the purple acid phosphatases. (C) 2004 Published by Elsevier Inc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We examine the current workflow modelling capability from a new angle and demonstrate a weakness of current workflow specification languages in relation to execution of activities. This shortcoming is mainly due to serious limitations of the corresponding computational/execution model behind the business process modelling language constructs. The main purpose of this paper is the introduction of new specification/modelling constructs allowing for more precise representation of complex activity states during its execution. This new concept enables visibility of a new activity state–partial completion of activity, which in turn allows for a more flexible and precise enforcement/monitoring of automated business processes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A busca por maior competitividade frente ao mercado cada vez mais concorrido, a perseguição pela maximização dos lucros nas organizações, e as maneiras para tornar as organizações mais eficientes são assuntos largamente debatidos em discussões nos ambientes empresariais e acadêmicos, áreas em que a administração é requerida para analisar o universo de possibilidades em busca dos objetivos acima. Principalmente sobre as pequenas e médias empresas (PME), os impactos dos custos decorrentes de falta de infraestruturas adequadas em transportes, movimentação de materiais e em logística em geral, tornam estas organizações menos competitivas. Uma das alternativas que deve ser apresentada é um agrupamento destas organizações em um mesmo espaço físico, os denominados clusters, a fim de compartilharem alguns destes custos, além de experiências para atingirem alguns ganhos também em escala. Na logística, existe a possibilidade de compartilhamento de diversos serviços, onde deverá ser identificada boa parte do potencial de ganho com este modelo, que é aplicado para diversos segmentos inclusive ao redor do mundo. Em especial no Brasil onde a carga tributária é elevada e muito complexa, quando se opta pelo modelo de cluster, haverá ganhos em escala inclusive na tributação fiscal das movimentações de mercadorias. Através do levantamento bibliográfico e a comparação de dados de diversos artigos e de instituições públicas e privadas, objetiva-se apresentar as vantagens das operações no modelo cluster, a possibilidade dos ganhos pelo cooperativismo existente nestes empreendimentos entre outras formas de benefícios possíveis na logística compartilhada pelas empresas do cluster, além de possíveis desvantagens e limitações. .  

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A igreja, no decorrer da História, adotou práticas evangelizadoras que foram sedimentando um paradigma de missão que veio a ser fortemente marcado pelos empreendimentos de expansão colonialista. A partir do século XVI, uma bifurcação é feita com a Reforma, mas este projeto também não consegue fugir da lógica colonial. Acompanhamos a trajetória deste modelo que, influenciado pelo puritanismo e o pietismo, e com o retoque das ideias iluministas, vem a ser formatado nos Estados Unidos da América, dando origem ao paradigma missionário protestante dominante. Sustentamos que a igreja, em seus encontros com o outro , zelosa por cumprir programas de expansão, continua a reproduzir a mesma lógica colonialista de dominação que reforça a negação da identidade do outro . O primeiro capítulo retrata a crise paradigmática sociocultural e epistemológica que também afetou o movimento missionário contemporâneo em virtude do descompasso entre estratégias usadas pela igreja e as novas demandas e desafios que o mundo apresenta. O capítulo dois mostra a caminhada do movimento missionário através da História, destacando os eventos que viriam contribuir para a configuração do paradigma de missão. O capítulo três acompanha a sua trajetória protestante depois da Reforma e como ele se tornou o modelo dominante nos EUA. Finalmente, o capítulo quatro traz a reflexão a respeito de um novo jeito de pensar a missão, propondo uma missiologia dialógica descolonizada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho analisa os importantes desafios que as novas tecnologias e as transformações na sociedade pós-industrial estão impondo à TV digital brasileira e ao seu modelo de negócios. Tem como principal objetivo realizar uma reflexão sobre a viabilidade financeira das emissoras abertas com a chegada da TV digital. Para tanto, analisa o modelo de negócios anterior, da TV analógica, baseado nos comerciais de trinta segundos e como esta forma poderá ser afetada inviabilizando a estrutura de produção e distribuição de conteúdo pelas emissoras abertas digitais. Ainda, busca evidenciar demais fatores que contribuem para a migração da audiência para outras plataformas de distribuição de conteúdo, refutando o senso comum de que o acesso à internet banda larga é a principal causa da queda dos índices de audiência. Este estudo se utiliza de uma ampla bibliografia que extrapola o campo específico da Comunicação e amplia o olhar sobre a indústria televisiva aberta no Brasil, enumerando fragilidades do setor e apontando possíveis estratégias para que a televisão brasileira possa se adaptar à nova estrutura da comunicação que está se formando em nosso país.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper focusses on attracting and retaining young people into technical disciplines. It introduces a new model of technical education from age 14 that the UK Government initiated in 2008. A concept of University led Technical Colleges (UTCs) for 14-19 year olds. These state supported schools, sponsored by a University, have technical curricula, technologically enabled learning environments and strong engagement with employers. As new schools they have been able to recruit outstanding staff that are conversant with the use of technology to enhance learning and all students have their own iPads. The Aston University Engineering Academy opened in September 2012 and a recent survey of staff, students and parents has provided both qualitative and quantitative data on the benefits to motivation and learning of these embedded iPads. The devices have also had advantages for the management of data on student achievement from a leadership, teaching staff and parental view point.