939 resultados para Reverse IMAC
Resumo:
O processo de implementação de políticas públicas tem se apresentado como o elo perdido da ação governamental. Apesar da importância desse processo, esta etapa carece de métodos de análises que deem conta de sua complexidade como forma de lhe garantir uma posição chave dentro do ciclo da análise de políticas públicas. A partir da adaptação do referencial da política institucional, proposta pelo grupo Francês Strategor, que analisa uma instituição sob quatro determinantes – estratégia, estrutura, decisão e identidade-, este estudo propõe-se a analisar o processo de implementação de uma política municipal de saúde voltada para Hipertensos e Diabéticos no município de Venda Nova do Imigrante/ES, avaliada como uma estratégia exitosa. Como resultado, esse estudo evidenciou que o processo exitoso de implementação da política avaliada pautou-se numa decisão participava e colegiada, no reconhecimento e valorização da autonomia profissional e na discussão democrática. Além disso, a estrutura institucional analisada proporcionou uma coordenação menos normativa, que favoreceu momentos de encontro entre o núcleo estratégico e os centros operacionais, rompendo com a excessiva verticalização das estruturas tradicionais. A análise do determinante identidade demonstrou uma apropriação dos valores e da missão institucional e um importante envolvimento dos atores, indicado pelo fortalecimento de parcerias e sinergias internas. A estratégia de implementação dessa política municipal mostrou-se potente no sentido de inverter a lógica do modelo de atenção, dentro de um processo de aprendizado, sendo este o grande diferencial competitivo de sucesso da instituição. A partir desses resultados, o referencial de Strategor se afirma como importante método de análise do processo de implementação, além de sua potência para indicar questões que colaborem para garantir à etapa de implementação uma posição de destaque dentro do ciclo da política pública.
Resumo:
Este estudo buscou conhecer as representações sociais de alunos do ensino médio acerca da política afirmativa de cotas da UFES. Ao escolher realizar esta investigação científica, optei trabalhar com a Teoria das Representações Sociais (TRS), justamente por se tratar de uma pesquisa de natureza qualitativa, permitindo compreender melhor esse conjunto de saberes sociais cotidianos, explicações e afirmações que se originam na vida diária desses alunos. Para coleta e análise dos dados elegi trabalhar com grupos focais e análise de conteúdo, por acreditar que se tratam de técnicas mais apropriadas pelo tempo hábil destinado a tal propósito e o caráter exploratório dessa investigação. Foram eleitos como campo de pesquisa três escolas que ofertam o ensino médio no município de Cachoeiro de Itapemirim. Sendo, respectivamente, uma da rede particular, uma estadual e uma federal. Apresentei também de forma introdutória os principais conceitos sistematizados por Serge Moscovici que serviram de coordenadas para a formulação da TRS. Em um segundo momento, faço um debate dialogado sobre as relações raciais no Brasil através de autores que tentaram interpretar a realidade de um país de passado escravista e patriarcal. Como resultado dos diálogos com alunos do ensino médio, percebi que as representações sociais desses estudantes estão ancorados a um conjunto de palavras ligadas a ideia de igualdade, mérito, preconceito pelas avessas, “medida tapa buraco”. Entretanto, alunos favoráveis às políticas de cotas utilizaram muito a palavra igualdade no sentido material da existência (econômico e social). Percebeu-se também diferenças significativas não somente de instituição para instituição, como uma diversidade muito grande de concepções dentro de uma mesma instituição de ensino. Exemplo disso foi encontrado no IFES de Cachoeiro de Itapemirim, onde a visão sobre as cotas do primeiro grupo pertencente à turma de informática se aproximou mais das representações sociais dos alunos da escola particular, enquanto que as concepções do segundo grupo do curso de eletromecânica se conectavam mais com as falas dos alunos de escola pública.
Resumo:
O soro de leite é um subproduto da fabricação do queijo, seja por acidificação ou por processo enzimático. Em condições ideais, a caseína do leite se agrega formando um gel, que posteriormente cortado, induz a separação e liberação do soro. É utilizado de diversas formas em toda a indústria alimentícia, possui rica composição em lactose, sais minerais e proteínas. A desidratação é um dos principais processos utilizados para beneficiamento e transformação do soro. Diante disto, o objetivo deste trabalho foi avaliar a influência dos métodos de secagem: liofilização, leito de espuma (nas temperaturas de 40, 50, 60, 70 e 80ºC) e spray-dryer (nas temperaturas de 55, 60, 65, 70 e 75ºC), sobre as características de umidade, proteína, cor e solubilidade do soro, bem como estudar o seu processo de secagem. O soro foi obtido e desidratado após concentração por osmose reversa, testando 11 tratamentos, em 3 repetições, utilizando um delineamento inteiramente casualizado. Os resultados demonstraram que o modelo matemático que melhor se ajustou foi o modelo de Page, apresentado um coeficiente de determinação ajustado acima de 0,98 e erro padrão da regressão em todas as temperaturas abaixo de 0,04 para o método por leito de espuma. Para o método de liofilização os respectivos valores foram 0,9975 e 0,01612. A partir disso, pode-se elaborar um modelo matemático generalizado, apresentando um coeficiente de determinação igual a 0,9888. No caso do leito de espuma, observou-se que à medida que se aumenta a temperatura do ar de secagem, o tempo de secagem diminui e os valores do coeficiente de difusão efetiva aumentam. Porém, a redução no tempo de secagem entre os intervalos de temperatura, diminui com o aumento da mesma. A energia de ativação para a difusão no processo de secagem do soro foi de 26,650 kJ/mol e para todas as avaliações físico-químicas e tecnológicas, a análise de variância apresentou um valor de F significativo (p<0,05), indicando que há pelo menos um contraste entre as médias dos tratamentos que é significativo.
Resumo:
Graphical user interfaces (GUIs) are critical components of todays software. Given their increased relevance, correctness and usability of GUIs are becoming essential. This paper describes the latest results in the development of our tool to reverse engineer the GUI layer of interactive computing systems. We use static analysis techniques to generate models of the user interface behaviour from source code. Models help in graphical user interface inspection by allowing designers to concentrate on its more important aspects. One particularly type of model that the tool is able to generate is state machines. The paper shows how graph theory can be useful when applied to these models. A number of metrics and algorithms are used in the analysis of aspects of the user interface's quality. The ultimate goal of the tool is to enable analysis of interactive system through GUIs source code inspection.
Resumo:
When developing interactive applications, considering the correctness of graphical user interfaces (GUIs) code is essential. GUIs are critical components of today's software, and contemporary software tools do not provide enough support for ensuring GUIs' code quality. GUIsurfer, a GUI reverse engineering tool, enables evaluation of behavioral properties of user interfaces. It performs static analysis of GUI code, generating state machines that can help in the evaluation of interactive applications. This paper describes the design, software architecture, and the use of GUIsurfer through an example. The tool is easily re-targetable, and support is available to Java/Swing, and WxHaskell. The paper sets the ground for a generalization effort to consider rich internet applications. It explores the GWT web applications' user interface programming toolkit.
Resumo:
Graphical user interfaces (GUIs) make software easy to use by providing the user with visual controls. Therefore, correctness of GUI's code is essential to the correct execution of the overall software. Models can help in the evaluation of interactive applications by allowing designers to concentrate on its more important aspects. This paper presents a generic model for language-independent reverse engineering of graphical user interface based applications, and we explore the integration of model-based testing techniques in our approach, thus allowing us to perform fault detection. A prototype tool has been constructed, which is already capable of deriving and testing a user interface behavioral model of applications written in Java/Swing.
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually oriented towards the imperative or object paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird-Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general, alternative to slicing functional programs
Resumo:
Program slicing is a well known family of techniques intended to identify and isolate code fragments which depend on, or are depended upon, specific program entities. This is particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, and corresponding tools, target either the imperative or the object oriented paradigms, where program slices are computed with respect to a variable or a program statement. Taking a complementary point of view, this paper focuses on the slicing of higher-order functional programs under a lazy evaluation strategy. A prototype of a Haskell slicer, built as proof-of-concept for these ideas, is also introduced
Resumo:
More and more current software systems rely on non trivial coordination logic for combining autonomous services typically running on different platforms and often owned by different organizations. Often, however, coordination data is deeply entangled in the code and, therefore, difficult to isolate and analyse separately. COORDINSPECTOR is a software tool which combines slicing and program analysis techniques to isolate all coordination elements from the source code of an existing application. Such a reverse engineering process provides a clear view of the actually invoked services as well as of the orchestration patterns which bind them together. The tool analyses Common Intermediate Language (CIL) code, the native language of Microsoft .Net Framework. Therefore, the scope of application of COORDINSPECTOR is quite large: potentially any piece of code developed in any of the programming languages which compiles to the .Net Framework. The tool generates graphical representations of the coordination layer together and identifies the underlying business process orchestrations, rendering them as Orc specifications
Resumo:
COORDINSPECTOR is a Software Tool aiming at extracting the coordination layer of a software system. Such a reverse engineering process provides a clear view of the actually invoked services as well as the logic behind such invocations. The analysis process is based on program slicing techniques and the generation of, System Dependence Graphs and Coordination Dependence Graphs. The tool analyzes Common Intermediate Language (CIL), the native language of the Microsoft .Net Framework, thus making suitable for processing systems developed in any .Net Framework compilable language. COORDINSPECTOR generates graphical representations of the coordination layer together with business process orchestrations specified in WSBPEL 2.0
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually targeting either the imperative or the object oriented paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird- Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general alternative to slicing functional programs
Resumo:
In the context of an e ort to develop methodologies to support the evaluation of interactive system, this paper investigates an approach to detect graphical user interface bad smells. Our approach consists in detecting user interface bad smells through model-based reverse engineering from source code. Models are used to de ne which widgets are present in the interface, when can particular graphical user interface (GUI) events occur, under which conditions, which system actions are executed, and which GUI state is generated next.
Resumo:
Graphical user interfaces (GUIs) are critical components of today's open source software. Given their increased relevance, the correctness and usability of GUIs are becoming essential. This paper describes the latest results in the development of our tool to reverse engineer the GUI layer of interactive computing open source systems. We use static analysis techniques to generate models of the user interface behavior from source code. Models help in graphical user interface inspection by allowing designers to concentrate on its more important aspects. One particular type of model that the tool is able to generate is state machines. The paper shows how graph theory can be useful when applied to these models. A number of metrics and algorithms are used in the analysis of aspects of the user interface's quality. The ultimate goal of the tool is to enable analysis of interactive system through GUIs source code inspection.
Resumo:
As atividades de produção e consumo geram resíduos que, conforme o destino, produzem impactos negativos no meio ambiente. Essa situação agravou-se, de maneira crítica, a partir da Revolução Industrial. Para reaproveitar esses resíduos, são necessárias novas formas de produzir, consumir e dar um destino adequado aos produtos após o final de seu ciclo de vida útil. Com base nesse contexto, o objetivo deste estudo é analisar como se estrutura e é coordenada uma cadeia de suprimentos reversa, tendo como objeto a coleta de óleo de cozinha utilizado. O caminho metodológico observa a abordagem qualitativa e caracteriza-se como exploratório. Em termos teóricos, o estudo orienta-se pelas abordagens de cadeias de suprimentos reversas e coordenação da cadeia de suprimentos. Os resultados evidenciam a iniciativa de uma empresa que não trabalha com óleo de cozinha utilizado, mas utiliza uma estratégia a partir desse resíduo para desencadear o processo de estruturação da cadeia analisada. Como principal contribuição, o estudo sugere a consolidação da quinta fase da logística: a Reverse Supply Chain (RSC).
Resumo:
Este trabalho utiliza uma estrutura pin empilhada, baseada numa liga de siliceto de carbono amorfo hidrogenado (a-Si:H e/ou a-SiC:H), que funciona como filtro óptico na zona visível do espectro electromagnético. Pretende-se utilizar este dispositivo para realizar a demultiplexagem de sinais ópticos e desenvolver um algoritmo que permita fazer o reconhecimento autónomo do sinal transmitido em cada canal. O objectivo desta tese visa implementar um algoritmo que permita o reconhecimento autónomo da informação transmitida por cada canal através da leitura da fotocorrente fornecida pelo dispositivo. O tema deste trabalho resulta das conclusões de trabalhos anteriores, em que este dispositivo e outros de configuração idêntica foram analisados, de forma a explorar a sua utilização na implementação da tecnologia WDM. Neste trabalho foram utilizados três canais de transmissão (Azul – 470 nm, Verde – 525 nm e Vermelho – 626 nm) e vários tipos de radiação de fundo. Foram realizadas medidas da resposta espectral e da resposta temporal da fotocorrente do dispositivo, em diferentes condições experimentais. Variou-se o comprimento de onda do canal e o comprimento de onda do fundo aplicado, mantendo-se constante a intensidade do canal e a frequência de transmissão. Os resultados obtidos permitiram aferir sobre a influência da presença da radiação de fundo e da tensão aplicada ao dispositivo, usando diferentes sequências de dados transmitidos nos vários canais. Verificou-se, que sob polarização inversa, a radiação de fundo vermelho amplifica os valores de fotocorrente do canal azul e a radiação de fundo azul amplifica o canal vermelho e verde. Para polarização directa, apenas a radiação de fundo azul amplifica os valores de fotocorrente do canal vermelho. Enquanto para ambas as polarizações, a radiação de fundo verde, não tem uma grande influência nos restantes canais. Foram implementados dois algoritmos para proceder ao reconhecimento da informação de cada canal. Na primeira abordagem usou-se a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa e directa. Pela comparação das duas medidas desenvolveu-se e testou-se um algoritmo que permite o reconhecimento dos canais individuais. Numa segunda abordagem procedeu-se ao reconhecimento da informação de cada canal mas com aplicação de radiação de fundo, tendo-se usado a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa sem aplicação de radiação de fundo com a informação contida nas medidas de fotocorrente geradas pelo dispositivo sob polarização inversa com aplicação de radiação de fundo. Pela comparação destas duas medidas desenvolveu-se e testou-se o segundo algoritmo que permite o reconhecimento dos canais individuais com base na aplicação de radiação de fundo.