954 resultados para Socket Programming
Resumo:
The principal aim of this paper is to measure the amount by which the profit of a multi-input, multi-output firm deviates from maximum short-run profit, and then to decompose this profit gap into components that are of practical use to managers. In particular, our interest is in the measurement of the contribution of unused capacity, along with measures of technical inefficiency, and allocative inefficiency, in this profit gap. We survey existing definitions of capacity and, after discussing their shortcomings, we propose a new ray economic capacity measure that involves short-run profit maximisation, with the output mix held constant. We go on to describe how the gap between observed profit and maximum profit can be calculated and decomposed using linear programming methods. The paper concludes with an empirical illustration, involving data on 28 international airline companies. The empirical results indicate that these airline companies achieve profit levels which are on average US$815m below potential levels, and that 70% of the gap may be attributed to unused capacity. (C) 2002 Elsevier Science B.V. All rights reserved.
Resumo:
Applying programming techniques to detailed data for 406 rice farms in 21 villages, for 1997, produces inefficiency measures, which differ substantially from the results of simple yield and unit cost measures. For the Boro (dry) season, mean technical efficiency was efficiency was 56.2 per cent and 69.4 per cent, allocative efficiency was 81.3 per cent, cost efficiency was 56.2 per cent and scale efficiency 94.9 per cent. The Aman (wet) season results are similar, but a few points lower. Allocative inefficiency is due to overuse of labour, suggesting population pressure, and of fertiliser, where recommended rates may warrant revision. Second-stage regressions show that large families are more inefficient, whereas farmers with better access to input markets, and those who do less off-farm work, tend to be more efficient. The information on the sources of inter-farm performance differentials could be used by the extension agents to help inefficient farmers. There is little excuse for such sub-optimal use of survey data, which are often collected at substantial costs.
Resumo:
Existing refinement calculi provide frameworks for the stepwise development of imperative programs from specifications. This paper presents a refinement calculus for deriving logic programs. The calculus contains a wide-spectrum logic programming language, including executable constructs such as sequential conjunction, disjunction, and existential quantification, as well as specification constructs such as general predicates, assumptions and universal quantification. A declarative semantics is defined for this wide-spectrum language based on executions. Executions are partial functions from states to states, where a state is represented as a set of bindings. The semantics is used to define the meaning of programs and specifications, including parameters and recursion. To complete the calculus, a notion of correctness-preserving refinement over programs in the wide-spectrum language is defined and refinement laws for developing programs are introduced. The refinement calculus is illustrated using example derivations and prototype tool support is discussed.
Resumo:
In this paper we describe a distributed object oriented logic programming language in which an object is a collection of threads deductively accessing and updating a shared logic program. The key features of the language, such as static and dynamic object methods and multiple inheritance, are illustrated through a series of small examples. We show how we can implement object servers, allowing remote spawning of objects, which we can use as staging posts for mobile agents. We give as an example an information gathering mobile agent that can be queried about the information it has so far gathered whilst it is gathering new information. Finally we define a class of co-operative reasoning agents that can do resource bounded inference for full first order predicate logic, handling multiple queries and information updates concurrently. We believe that the combination of the concurrent OO and the LP programming paradigms produces a powerful tool for quickly implementing rational multi-agent applications on the internet.
Resumo:
Program compilation can be formally defined as a sequence of equivalence-preserving transformations, or refinements, from high-level language programs to assembler code, Recent models also incorporate timing properties, but the resulting formalisms are intimidatingly complex. Here we take advantage of a new, simple model of real-time refinement, based on predicate transformer semantics, to present a straightforward compilation formalism that incorporates real-time constraints. (C) 2002 Elsevier Science B.V. All rights reserved.
Resumo:
The refinement calculus is a well-established theory for deriving program code from specifications. Recent research has extended the theory to handle timing requirements, as well as functional ones, and we have developed an interactive programming tool based on these extensions. Through a number of case studies completed using the tool, this paper explains how the tool helps the programmer by supporting the many forms of variables needed in the theory. These include simple state variables as in the untimed calculus, trace variables that model the evolution of properties over time, auxiliary variables that exist only to support formal reasoning, subroutine parameters, and variables shared between parallel processes.
Resumo:
For dynamic simulations to be credible, verification of the computer code must be an integral part of the modelling process. This two-part paper describes a novel approach to verification through program testing and debugging. In Part 1, a methodology is presented for detecting and isolating coding errors using back-to-back testing. Residuals are generated by comparing the output of two independent implementations, in response to identical inputs. The key feature of the methodology is that a specially modified observer is created using one of the implementations, so as to impose an error-dependent structure on these residuals. Each error can be associated with a fixed and known subspace, permitting errors to be isolated to specific equations in the code. It is shown that the geometric properties extend to multiple errors in either one of the two implementations. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
O artigo pretende mostrar as dificuldades de sustentabilidade da atividade cinematogr??fica brasileira. Com base na an??lise da cadeia produtiva, na estrutura tribut??ria e nas falhas da legisla????o de incentivo fiscal, prop??e-se a exist??ncia de um ciclo vicioso de depend??ncia aos incentivos fiscais. Tendo em vista as dificuldades de acesso a salas de cinema, devido, entre outros fatores, ao baixo poder aquisitivo da popula????o e ?? concentra????o geogr??fica de cinemas nas grandes cidades, prop??e-se uma parceria efetiva entre cinema e televis??o, facilitada pela tecnologia digital. Isso implicar?? altera????es na legisla????o atual, bem como a cria????o de regras regulat??rias, como forma de ampliar o acesso de filmes nacionais ?? grade de programa????o televisiva e tamb??m de viabilizar, em termos industriais, essa atividade econ??mica.
Resumo:
O presente trabalho utiliza a metodologia DEA (Data Envelopment Analysis ), para avaliar a efici??ncia das 22 Ag??ncias da Previd??ncia Social ??? Ger??ncia Executiva Fortaleza (APS-GEXFOR). DEA utiliza programa????o linear cujo n??cleo das estruturas anal??ticas ?? formado a partir do modelo original CCR (Charnes, Cooper, e Rhodes). Aplicada ??s DMU (Decision Making Units), define uma Fronteira de Efici??ncia identificando Unidades Eficientes e Ineficientes. Foi utilizado o modelo DEA-CCR implementado pelo software DEA Solver??. A Previd??ncia Social (INSS) disp??e de indicadores de desempenho. Algumas vari??veis utilizadas no modelo implementado derivam desses indicadores, outras informa????es foram disponibilizadas pelos sistemas de informa????o da institui????o. A avalia????o de efici??ncia DEA das APS-GEXFOR permitiu identificar as melhores pr??ticas, mensurar a participa????o de cada vari??vel envolvida na avalia????o da unidade e projetar as unidades ineficientes na fronteira de efici??ncia, identificando metas a serem atingidas para torn??-las eficientes no conjunto observado.
Resumo:
O presente artigo pretende analisar a quest??o da qualidade da programa????o na televis??o brasileira a partir da proposta de um novo marco regulat??rio para o setor de comunica????o social eletr??nica. Essa nova lei, entre outras disposi????es, ir?? regulamentar o artigo 221 da Constitui????o Federal, que trata dos princ??pios pelos quais o conte??do televisivo deve pautar-se. Com isso, define-se qualidade levando-se em considera????o dois aspectos: diversidade e ressalvas ?? liberdade de express??o, ambos previstos na Constitui????o Federal. A partir dessa conceitua????o, prop??e-se a instrumentaliza????o do controle social sobre o conte??do televisivo e a garantia de meios para a diversidade da programa????o. Com rela????o ao primeiro aspecto, recomenda-se a atua????o transparente de uma futura ag??ncia reguladora e a implementa????o de mecanismo de controle individual da programa????o. No que tange ?? diversidade, ressalta-se a import??ncia do fortalecimento das televis??es p??blicas e medidas governamentais no sentido de estimular a multiprograma????o propiciada pelo advento da tecnologia digital.
Resumo:
A pesquisa analisa da constituição histórica da disciplina História da Educação ministrada na Faculdade de Filosofia Ciências e Letras do Estado do Espírito Santo, posteriormente incorporada a Universidade Federal do Espírito Santo entre os anos de 1951 e 2000. Investiga a constituição histórica da disciplina, as transformações programáticas, legais e institucionais referentes à disciplina de História da Educação, como também as abordagens historiográficas, periodizações e os conceitos de tempo, história e educação. A fundamentação teórica e metodológica articula-se dialogicamente a partir das construções conceituais e metodológicas de Carlo Ginzburg e Mikhail Bakhtin. A partir dos conceitos de polifonia e dialogismo, comum a ambos, investigou-se as vozes e diálogos impressos nas narrativas da disciplina de História da Educação e seu ensino, sejam em camadas mais superficiais ou profundas, encontradas no corpus documental consultado e analisado, que correspondem a: programas de ensino, transparências, leis, estruturas curriculares, documentos de departamento; resenhas e fichamentos de textos, bibliografia obrigatória e complementar, avaliações e entrevistas. Procurou-se no corpus documental dados aparentemente negligenciáveis – pistas, indícios e sinais – remontar uma realidade histórica complexa e não experimentável diretamente. Ao investigar historicamente a trajetória da disciplina História da Educação e seu ensino a partir dos parâmetros legais, programáticos e institucionais, foi possível perceber que as mudanças mais profundas operadas na disciplina não se originam das legislações e reestruturações curriculares, mas dos locais de produção e socialização do conhecimento histórico. Durante o período analisado, as duas esferas de produção historiográficas que mais influenciaram nas abordagens, periodizações e conceitos de tempo, história e educação da disciplina História da Educação do curso de pedagogia pesquisado foram: a editora responsável pela publicação e divulgação dos Manuais de História da Educação da coleção Atualidades Pedagógicas (1951-1979) e os Programas de Pós-graduação em Educação e História (1980 - 2000). Entre 1951 e finais de 1970 observa-se a influência dos Manuais de História da Educação, na organização e programação do ensino de História da Educação e uma abordagem filosófica voltada para a história das ideias pedagógicas e análises do pensamento de filósofos e educadores sobre a educação e respectivas inserções em doutrinas filosóficas europeias. A partir de 1980 as abordagens de cunho econômico, político e ideológico dos contextos históricos educativos passaram a predominar nos programas de ensino das disciplinas de História da Educação I e II, e vigoraram até meados nos anos de 1990. Na disciplina de História da Educação I a abordagem é marcada por análises do contexto de produção e organização das classes sociais; com relação à disciplina História da Educação II, até meados de 1995, trata da educação brasileira. A partir da abordagem fundamentada na Teoria da Dependência após 1995, os documentos consultados começam a mostrar outras marcas que sugerem uma abordagem voltada para a dimensão política e social, abordando a História da Educação Brasileira, a partir dos movimentos sociais e seus respectivos projetos educacionais.
Resumo:
O intuito inicial desta pesquisa foi acompanhar processos de trabalho à luz do referencial teórico da Ergologia e, portanto, concebendo o trabalho como relação dialética entre técnica e ação humana. O objetivo era cartografar o trabalho no processo de beneficiamento de granitos em uma organização de grande porte localizada no Espírito Santo e, após algum tempo em campo, o problema delineou- se do seguinte modo: como se constitui a competência industriosa no beneficiamento de granitos em uma organização de grande porte? A pesquisa justifica-se uma vez que, a despeito da relevância econômica, o cenário capixaba de rochas ornamentais apresenta problemas precários no que diz respeito à gestão. Para os Estudos Organizacionais, a relevância é reforçada pelo fato de aproximar desta área a abordagem ergológica e demarcar no debate sobre competência a noção de competência industriosa, ainda não explorada nesse campo de estudo. Para realização da pesquisa, foi praticada uma cartografia ergológica, a partir da articulação das pistas cartográficas com o referencial teórico-conceitual da Ergologia, sendo utilizadas como técnicas: observação participante durante 6 meses, com uma média de 3 visitas a campo por semana; 8 entrevistas semiestruturadas e em profundidade de cerca de 50 minutos cada com trabalhadores operacionais; uma entrevista com gerente de produção e outra com representante da área de Gestão de Pessoas; conversas com os demais trabalhadores, a fim de enriquecer o diário de campo; novas conversas e observações ao final da análise, para confrontação-validação com os trabalhadores. A sistematização dos procedimentos de análise pode ser assim descrita: a) leituras flutuantes com objetivo de fazer emergirem aspectos centrais relacionados às duas dimensões do trabalho, técnica e ação humana; b) leituras em profundidade com objetivo de fazer emergirem singularidades e especificidades relativas à dialética entre ambas; c) leituras em profundidade com objetivo de fazer emergirem aspectos relativos aos ingredientes da competência industriosa. A despeito da não delimitação de categorias analíticas e subcategorias, a partir da análise emergiram cinco eixos analíticos: 1) os procedimentos a serem empregados no processo de beneficiamento de granitos, englobando: as etapas do beneficiamento; as funções a serem desempenhadas e as tarefas a serem desenvolvidas; as normas regulamentadoras; os conhecimentos técnicos necessários para programação e operação de máquinas; a ordem de produção prescrita pelo setor comercial; 2) o trabalho real, diferenciado do trabalho como emprego de procedimentos pelo foco dado à ação humana no enfrentamento de situações reais, repletas de eventos e variabilidades, em todo o processo, englobando: preparo de carga; laminação; serrada; levigamento; resinagem; polimento-classificação; retoque; fechamento de pacote; ovada de contêiner; 3) diferentes modos de usos de si que, em tendência, são responsáveis pela constituição do agir em competência em cada etapa do processo, na dialética entre técnica e ação humana; 4) o modo como cada ingrediente da competência industriosa atua e se constitui, bem como sua concentração, em tendência, em cada etapa do processo, a partir dos tipos de usos de si que, também em tendência, são mais responsáveis pelo agir em competência, apresentando assim o perfil da competência industriosa no beneficiamento de granitos na empresa em análise; 5) dois possíveis fatores potencializadores dos ingredientes da competência industriosa, a saber, a transdução e os não-humanos. A partir de todo o exposto, as últimas considerações problematizam aspectos relativos ao debate sobre competências e práticas de gestão de pessoas a partir da competência compreendida da seguinte forma: mestria no ato de tirar partido do meio e de si para gerir situações de trabalho, em que a ação consiste na mobilização de recursos dificilmente perceptíveis e descritíveis, inerentes ao trabalhador, porém constituídos e manifestos por usos de si por si e pelos outros no e para o ato real de trabalho, marcadamente num nível infinitesimal, diante de situações que demandam aplicação de protocolos concomitante à gestão de variabilidades e eventos em parte inantecipáveis e inelimináveis.
Resumo:
Since Cardoso and during Lula's Administration, the international order has undergone significant changes. These changes have allowed the Brazilian foreign policy to mitigate internal effects of an order established by others and, at the same time, to become an active participant in the formulation of the new order. To democratize globalization became the mainspring of Brazilian foreign policy. In the scope, President Lula has maintained the tradition of formulating and programming foreign policy as a State policy, and also has fostered the logistic strategy of incorporation of Brazil into the international scene.
Resumo:
This paper presents experimental results of the communication performance evaluation of a prototype ZigBee-based patient monitoring system commissioned in an in-patient floor of a Portuguese hospital (HPG – Hospital Privado de Guimar~aes). Besides, it revisits relevant problems that affect the performance of nonbeacon-enabled ZigBee networks. Initially, the presence of hidden-nodes and the impact of sensor node mobility are discussed. It was observed, for instance, that the message delivery ratio in a star network consisting of six wireless electrocardiogram sensor devices may decrease from 100% when no hidden-nodes are present to 83.96% when half of the sensor devices are unable to detect the transmissions made by the other half. An additional aspect which affects the communication reliability is a deadlock condition that can occur if routers are unable to process incoming packets during the backoff part of the CSMA-CA mechanism. A simple approach to increase the message delivery ratio in this case is proposed and its effectiveness is verified. The discussion and results presented in this paper aim to contribute to the design of efficient networks,and are valid to other scenarios and environments rather than hospitals.
Resumo:
Exploratory factor analysis is a widely used statistical technique in the social sciences. It attempts to identify underlying factors that explain the pattern of correlations within a set of observed variables. A statistical software package is needed to perform the calcula- tions. However, there are some limitations with popular statistical software packages, like SPSS. The R programming language is a free software package for statistical and graphical computing. It o ers many packages written by contributors from all over the world and programming resources that allow it to overcome the dialog limitations of SPSS. This paper o ers an SPSS dialog written in the R programming language with the help of some packages, so that researchers with little or no knowledge in programming, or those who are accustomed to making their calculations based on statistical dialogs, have more options when applying factor analysis to their data and hence can adopt a better approach when dealing with ordinal, Likert-type data.