952 resultados para Transgenerational programming


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O artigo pretende mostrar as dificuldades de sustentabilidade da atividade cinematogr??fica brasileira. Com base na an??lise da cadeia produtiva, na estrutura tribut??ria e nas falhas da legisla????o de incentivo fiscal, prop??e-se a exist??ncia de um ciclo vicioso de depend??ncia aos incentivos fiscais. Tendo em vista as dificuldades de acesso a salas de cinema, devido, entre outros fatores, ao baixo poder aquisitivo da popula????o e ?? concentra????o geogr??fica de cinemas nas grandes cidades, prop??e-se uma parceria efetiva entre cinema e televis??o, facilitada pela tecnologia digital. Isso implicar?? altera????es na legisla????o atual, bem como a cria????o de regras regulat??rias, como forma de ampliar o acesso de filmes nacionais ?? grade de programa????o televisiva e tamb??m de viabilizar, em termos industriais, essa atividade econ??mica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho utiliza a metodologia DEA (Data Envelopment Analysis ), para avaliar a efici??ncia das 22 Ag??ncias da Previd??ncia Social ??? Ger??ncia Executiva Fortaleza (APS-GEXFOR). DEA utiliza programa????o linear cujo n??cleo das estruturas anal??ticas ?? formado a partir do modelo original CCR (Charnes, Cooper, e Rhodes). Aplicada ??s DMU (Decision Making Units), define uma Fronteira de Efici??ncia identificando Unidades Eficientes e Ineficientes. Foi utilizado o modelo DEA-CCR implementado pelo software DEA Solver??. A Previd??ncia Social (INSS) disp??e de indicadores de desempenho. Algumas vari??veis utilizadas no modelo implementado derivam desses indicadores, outras informa????es foram disponibilizadas pelos sistemas de informa????o da institui????o. A avalia????o de efici??ncia DEA das APS-GEXFOR permitiu identificar as melhores pr??ticas, mensurar a participa????o de cada vari??vel envolvida na avalia????o da unidade e projetar as unidades ineficientes na fronteira de efici??ncia, identificando metas a serem atingidas para torn??-las eficientes no conjunto observado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente artigo pretende analisar a quest??o da qualidade da programa????o na televis??o brasileira a partir da proposta de um novo marco regulat??rio para o setor de comunica????o social eletr??nica. Essa nova lei, entre outras disposi????es, ir?? regulamentar o artigo 221 da Constitui????o Federal, que trata dos princ??pios pelos quais o conte??do televisivo deve pautar-se. Com isso, define-se qualidade levando-se em considera????o dois aspectos: diversidade e ressalvas ?? liberdade de express??o, ambos previstos na Constitui????o Federal. A partir dessa conceitua????o, prop??e-se a instrumentaliza????o do controle social sobre o conte??do televisivo e a garantia de meios para a diversidade da programa????o. Com rela????o ao primeiro aspecto, recomenda-se a atua????o transparente de uma futura ag??ncia reguladora e a implementa????o de mecanismo de controle individual da programa????o. No que tange ?? diversidade, ressalta-se a import??ncia do fortalecimento das televis??es p??blicas e medidas governamentais no sentido de estimular a multiprograma????o propiciada pelo advento da tecnologia digital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa analisa da constituição histórica da disciplina História da Educação ministrada na Faculdade de Filosofia Ciências e Letras do Estado do Espírito Santo, posteriormente incorporada a Universidade Federal do Espírito Santo entre os anos de 1951 e 2000. Investiga a constituição histórica da disciplina, as transformações programáticas, legais e institucionais referentes à disciplina de História da Educação, como também as abordagens historiográficas, periodizações e os conceitos de tempo, história e educação. A fundamentação teórica e metodológica articula-se dialogicamente a partir das construções conceituais e metodológicas de Carlo Ginzburg e Mikhail Bakhtin. A partir dos conceitos de polifonia e dialogismo, comum a ambos, investigou-se as vozes e diálogos impressos nas narrativas da disciplina de História da Educação e seu ensino, sejam em camadas mais superficiais ou profundas, encontradas no corpus documental consultado e analisado, que correspondem a: programas de ensino, transparências, leis, estruturas curriculares, documentos de departamento; resenhas e fichamentos de textos, bibliografia obrigatória e complementar, avaliações e entrevistas. Procurou-se no corpus documental dados aparentemente negligenciáveis – pistas, indícios e sinais – remontar uma realidade histórica complexa e não experimentável diretamente. Ao investigar historicamente a trajetória da disciplina História da Educação e seu ensino a partir dos parâmetros legais, programáticos e institucionais, foi possível perceber que as mudanças mais profundas operadas na disciplina não se originam das legislações e reestruturações curriculares, mas dos locais de produção e socialização do conhecimento histórico. Durante o período analisado, as duas esferas de produção historiográficas que mais influenciaram nas abordagens, periodizações e conceitos de tempo, história e educação da disciplina História da Educação do curso de pedagogia pesquisado foram: a editora responsável pela publicação e divulgação dos Manuais de História da Educação da coleção Atualidades Pedagógicas (1951-1979) e os Programas de Pós-graduação em Educação e História (1980 - 2000). Entre 1951 e finais de 1970 observa-se a influência dos Manuais de História da Educação, na organização e programação do ensino de História da Educação e uma abordagem filosófica voltada para a história das ideias pedagógicas e análises do pensamento de filósofos e educadores sobre a educação e respectivas inserções em doutrinas filosóficas europeias. A partir de 1980 as abordagens de cunho econômico, político e ideológico dos contextos históricos educativos passaram a predominar nos programas de ensino das disciplinas de História da Educação I e II, e vigoraram até meados nos anos de 1990. Na disciplina de História da Educação I a abordagem é marcada por análises do contexto de produção e organização das classes sociais; com relação à disciplina História da Educação II, até meados de 1995, trata da educação brasileira. A partir da abordagem fundamentada na Teoria da Dependência após 1995, os documentos consultados começam a mostrar outras marcas que sugerem uma abordagem voltada para a dimensão política e social, abordando a História da Educação Brasileira, a partir dos movimentos sociais e seus respectivos projetos educacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O intuito inicial desta pesquisa foi acompanhar processos de trabalho à luz do referencial teórico da Ergologia e, portanto, concebendo o trabalho como relação dialética entre técnica e ação humana. O objetivo era cartografar o trabalho no processo de beneficiamento de granitos em uma organização de grande porte localizada no Espírito Santo e, após algum tempo em campo, o problema delineou- se do seguinte modo: como se constitui a competência industriosa no beneficiamento de granitos em uma organização de grande porte? A pesquisa justifica-se uma vez que, a despeito da relevância econômica, o cenário capixaba de rochas ornamentais apresenta problemas precários no que diz respeito à gestão. Para os Estudos Organizacionais, a relevância é reforçada pelo fato de aproximar desta área a abordagem ergológica e demarcar no debate sobre competência a noção de competência industriosa, ainda não explorada nesse campo de estudo. Para realização da pesquisa, foi praticada uma cartografia ergológica, a partir da articulação das pistas cartográficas com o referencial teórico-conceitual da Ergologia, sendo utilizadas como técnicas: observação participante durante 6 meses, com uma média de 3 visitas a campo por semana; 8 entrevistas semiestruturadas e em profundidade de cerca de 50 minutos cada com trabalhadores operacionais; uma entrevista com gerente de produção e outra com representante da área de Gestão de Pessoas; conversas com os demais trabalhadores, a fim de enriquecer o diário de campo; novas conversas e observações ao final da análise, para confrontação-validação com os trabalhadores. A sistematização dos procedimentos de análise pode ser assim descrita: a) leituras flutuantes com objetivo de fazer emergirem aspectos centrais relacionados às duas dimensões do trabalho, técnica e ação humana; b) leituras em profundidade com objetivo de fazer emergirem singularidades e especificidades relativas à dialética entre ambas; c) leituras em profundidade com objetivo de fazer emergirem aspectos relativos aos ingredientes da competência industriosa. A despeito da não delimitação de categorias analíticas e subcategorias, a partir da análise emergiram cinco eixos analíticos: 1) os procedimentos a serem empregados no processo de beneficiamento de granitos, englobando: as etapas do beneficiamento; as funções a serem desempenhadas e as tarefas a serem desenvolvidas; as normas regulamentadoras; os conhecimentos técnicos necessários para programação e operação de máquinas; a ordem de produção prescrita pelo setor comercial; 2) o trabalho real, diferenciado do trabalho como emprego de procedimentos pelo foco dado à ação humana no enfrentamento de situações reais, repletas de eventos e variabilidades, em todo o processo, englobando: preparo de carga; laminação; serrada; levigamento; resinagem; polimento-classificação; retoque; fechamento de pacote; ovada de contêiner; 3) diferentes modos de usos de si que, em tendência, são responsáveis pela constituição do agir em competência em cada etapa do processo, na dialética entre técnica e ação humana; 4) o modo como cada ingrediente da competência industriosa atua e se constitui, bem como sua concentração, em tendência, em cada etapa do processo, a partir dos tipos de usos de si que, também em tendência, são mais responsáveis pelo agir em competência, apresentando assim o perfil da competência industriosa no beneficiamento de granitos na empresa em análise; 5) dois possíveis fatores potencializadores dos ingredientes da competência industriosa, a saber, a transdução e os não-humanos. A partir de todo o exposto, as últimas considerações problematizam aspectos relativos ao debate sobre competências e práticas de gestão de pessoas a partir da competência compreendida da seguinte forma: mestria no ato de tirar partido do meio e de si para gerir situações de trabalho, em que a ação consiste na mobilização de recursos dificilmente perceptíveis e descritíveis, inerentes ao trabalhador, porém constituídos e manifestos por usos de si por si e pelos outros no e para o ato real de trabalho, marcadamente num nível infinitesimal, diante de situações que demandam aplicação de protocolos concomitante à gestão de variabilidades e eventos em parte inantecipáveis e inelimináveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since Cardoso and during Lula's Administration, the international order has undergone significant changes. These changes have allowed the Brazilian foreign policy to mitigate internal effects of an order established by others and, at the same time, to become an active participant in the formulation of the new order. To democratize globalization became the mainspring of Brazilian foreign policy. In the scope, President Lula has maintained the tradition of formulating and programming foreign policy as a State policy, and also has fostered the logistic strategy of incorporation of Brazil into the international scene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents experimental results of the communication performance evaluation of a prototype ZigBee-based patient monitoring system commissioned in an in-patient floor of a Portuguese hospital (HPG – Hospital Privado de Guimar~aes). Besides, it revisits relevant problems that affect the performance of nonbeacon-enabled ZigBee networks. Initially, the presence of hidden-nodes and the impact of sensor node mobility are discussed. It was observed, for instance, that the message delivery ratio in a star network consisting of six wireless electrocardiogram sensor devices may decrease from 100% when no hidden-nodes are present to 83.96% when half of the sensor devices are unable to detect the transmissions made by the other half. An additional aspect which affects the communication reliability is a deadlock condition that can occur if routers are unable to process incoming packets during the backoff part of the CSMA-CA mechanism. A simple approach to increase the message delivery ratio in this case is proposed and its effectiveness is verified. The discussion and results presented in this paper aim to contribute to the design of efficient networks,and are valid to other scenarios and environments rather than hospitals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exploratory factor analysis is a widely used statistical technique in the social sciences. It attempts to identify underlying factors that explain the pattern of correlations within a set of observed variables. A statistical software package is needed to perform the calcula- tions. However, there are some limitations with popular statistical software packages, like SPSS. The R programming language is a free software package for statistical and graphical computing. It o ers many packages written by contributors from all over the world and programming resources that allow it to overcome the dialog limitations of SPSS. This paper o ers an SPSS dialog written in the R programming language with the help of some packages, so that researchers with little or no knowledge in programming, or those who are accustomed to making their calculations based on statistical dialogs, have more options when applying factor analysis to their data and hence can adopt a better approach when dealing with ordinal, Likert-type data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When developing interactive applications, considering the correctness of graphical user interfaces (GUIs) code is essential. GUIs are critical components of today's software, and contemporary software tools do not provide enough support for ensuring GUIs' code quality. GUIsurfer, a GUI reverse engineering tool, enables evaluation of behavioral properties of user interfaces. It performs static analysis of GUI code, generating state machines that can help in the evaluation of interactive applications. This paper describes the design, software architecture, and the use of GUIsurfer through an example. The tool is easily re-targetable, and support is available to Java/Swing, and WxHaskell. The paper sets the ground for a generalization effort to consider rich internet applications. It explores the GWT web applications' user interface programming toolkit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last decade, software architecture emerged as a critical issue in Software Engineering. This encompassed a shift from traditional programming towards software development based on the deployment and assembly of independent components. The specification of both the overall systems structure and the interaction patterns between their components became a major concern for the working developer. Although a number of formalisms to express behaviour and to supply the indispensable calculational power to reason about designs, are available, the task of deriving architectural designs on top of popular component platforms has remained largely informal. This paper introduces a systematic approach to derive, from CCS behavioural specifications the corresponding architectural skeletons in the Microsoft .Net framework, in the form of executable C and Cω code. The prototyping process is fully supported by a specific tool developed in Haskell

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually oriented towards the imperative or object paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird-Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general, alternative to slicing functional programs

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Program slicing is a well known family of techniques intended to identify and isolate code fragments which depend on, or are depended upon, specific program entities. This is particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, and corresponding tools, target either the imperative or the object oriented paradigms, where program slices are computed with respect to a variable or a program statement. Taking a complementary point of view, this paper focuses on the slicing of higher-order functional programs under a lazy evaluation strategy. A prototype of a Haskell slicer, built as proof-of-concept for these ideas, is also introduced

Relevância:

10.00% 10.00%

Publicador:

Resumo:

More and more current software systems rely on non trivial coordination logic for combining autonomous services typically running on different platforms and often owned by different organizations. Often, however, coordination data is deeply entangled in the code and, therefore, difficult to isolate and analyse separately. COORDINSPECTOR is a software tool which combines slicing and program analysis techniques to isolate all coordination elements from the source code of an existing application. Such a reverse engineering process provides a clear view of the actually invoked services as well as of the orchestration patterns which bind them together. The tool analyses Common Intermediate Language (CIL) code, the native language of Microsoft .Net Framework. Therefore, the scope of application of COORDINSPECTOR is quite large: potentially any piece of code developed in any of the programming languages which compiles to the .Net Framework. The tool generates graphical representations of the coordination layer together and identifies the underlying business process orchestrations, rendering them as Orc specifications

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current software development often relies on non-trivial coordination logic for combining autonomous services, eventually running on different platforms. As a rule, however, such a coordination layer is strongly woven within the application at source code level. Therefore, its precise identification becomes a major methodological (and technical) problem and a challenge to any program understanding or refactoring process. The approach introduced in this paper resorts to slicing techniques to extract coordination data from source code. Such data are captured in a specific dependency graph structure from which a coordination model can be recovered either in the form of an Orc specification or as a collection of code fragments corresponding to the identification of typical coordination patterns in the system. Tool support is also discussed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last decade, software architecture emerged as a critical design step in Software Engineering. This encompassed a shift from traditional programming towards the deployment and assembly of independent components. The specification of the overall system structure, on the one hand, and of the interactions patterns between its components, on the other, became a major concern for the working developer. Although a number of formalisms to express behaviour and supply the indispensable calculational power to reason about designs, are available, the task of deriving architectural designs on top of popular component platforms has remained largely informal. This paper introduces a systematic approach to derive, from behavioural specifications written in Ccs, the corresponding architectural skeletons in the Microsoft .Net framework in the form of executable C] code. Such prototyping process is automated by means of a specific tool developed in Haskell