956 resultados para teoria de sistemas
Resumo:
Esta pesquisa, batizada Astrha (Automata Structured Hyper-Animation), tem suas raízes no projeto “Hyper Seed - Framework, Ferramentas e Métodos para Sistemas Hipermídia voltados para EAD via WWW” que possui, entre seus objetivos e metas: (a) o desenvolvimento de uma fundamentação matemática para a unificação, de maneira coerente e matematicamente rigorosa, de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos; (b) a construção e validação de um protótipo de sistema com suporte à criação de conteúdo multimídia e hipermídia com ênfase em educação assistida por computador; (c) a definição e aplicação de estudos de caso. Atender às demandas acadêmicas e construtoras supra citadas, no que se refere à unificação de especificações de sistemas hipermídia e animações baseadas na Teoria dos Autômatos, em nível conceitual, é o objetivo principal do Astrha. Mais especificamente, unificar conceitos das especificações Hyper-Automaton; Hyper- Automaton: Avaliações Interativas; eXtensible Hyper-Automaton (XHA) e Animação Bidimensional para World Wide Web (AGA). Para resolvê-las, propõe uma solução em cinco fases. A primeira constitui-se numa investigação conceitual sobre unificação de ambientes hipermídia com animações por computador, da qual conclui-se que as hiperanimações são uma resposta adequada ao contexto. Em seguida, um autômato finito não-determinístico, reflexivo, com saídas associadas às transições, denominado Astrha/M, é especializado para modelar, formalmente, estruturas hiper-animadas. Na terceira fase, uma linguagem de quarta geração denominada Astrha/L é proposta com a finalidade de proporcionar semântica à ambientes hiper-animados. Construída a partir da metalinguagem XML, é composta de quatro dialetos: (1) Mealy, que traduz o modelo Astrha/M; (2) Environment, que oferece opções de configuração e documentação; (3) Hyper, linguagem hipermídia, de sintaxe simples, que oferece hiperligações estendidas; (4) Style, especificação de estilos em cascata e de caracteres especiais. A quarta fase é a modelagem e construção do protótipo, denominado Astrha/E, através das linguagens UML e Java, respectivamente, com uso de tecnologias de software livre, resultando em um applet interativo, dinâmico, multimídia, que oferece características e propriedades de uma hiper-animação, traduzindo não-determinismos em escolhas pseudo-aleatórias e reflexividades em inoperabilidades aparentes. Por fim, a quinta fase trata de estudos de caso aplicados em educação a distância, em diversas áreas, de onde se conclui sua validade como conceito, modelo e ferramenta para programas educacionais que utilizam a Internet como meio de auxílio ao aprendizado.
Resumo:
A informatização da Justiça brasileira é um processo em andamento cujo início remonta à década de 1970. Seu último estágio de desenvolvimento, o processo eletrônico, está sendo implantado desde o início do milênio, sem que haja um prazo previsto para sua conclusão. Em 2009, o Conselho Nacional de Justiça estabeleceu que todos novos processos a partir de 2014 seriam em meio eletrônico. Porém, esta meta está longe de ser alcançada, conforme comprovam os dados do Relatório Justiça em Números. O objetivo deste trabalho foi entender a contribuição do sistema Projudi para o processo de informatização do Poder Judiciário brasileiro. Para isso foram investigadas as trajetórias do sistema sob a ótica da Teoria Ator-Rede e os movimentos que propiciaram as trajetórias encontradas. As trajetórias do Projudi foram divididas em três grandes etapas: de Campina Grande a João Pessoa, de João Pessoa a Brasília e de Brasília para o Brasil. Cada uma das duas primeiras etapas foi dividida em três fases. Já a terceira etapa foi contada a partir de três casos de implantação do Projudi em tribunais estaduais: Roraima, Minas Gerais e Bahia. Essas trajetórias foram analisadas sob a ótica da Teoria Ator-Rede, com o auxílio de gráficos temporais, de rede e de coesão. A conclusão apresenta pontos importantes das trajetórias estudas e recomendações que podem ser seguidas no processo de informatização do Poder Judiciário brasileiro.
Resumo:
A proposta deste trabalho é de, a partir de uma crítica da dicotomia juízos de valor/juízos de fato, realizar uma reflexão crítica sobre a “Teoria Econômica” convencional ou neoclássica e propor uma análise econômica baseada na superação daquela dicotomia. De acordo com Amartya Sem (1999-2007), a análise econômica tem duas raízes: a primeira relacionada à ética e à concepção política, a qual apesar de levantar questões irredutíveis de análise econômica, tem sido desqualificada pela análise econômica moderna, por ser considerada “não científica” e a outra concepção, a abordagem de engenharia, desenvolvida a partir da análise de estados do sistema econômico, e que procurou basear-se grandemente na “análise estática” da Física. Este é o veio principal da Teoria econômica convencional e que por causa de sua analogia com os sistemas físicos é considerada “científica”.
Resumo:
As tecnologias da informação e comunicação (TIC) estão presentes nas mais diversas áreas e atividades cotidianas, mas, em que pesem as ações de governos e instituições privadas, a informatização da saúde ainda é um desafio em aberto no Brasil. A situação atual leva a um questionamento sobre as dificuldades associadas à informatização das práticas em saúde, assim como, quais efeitos tais dificuldades têm causado à sociedade Brasileira. Com objetivo de discutir as questões acima citadas, esta tese apresenta quatro artigos sobre processo de informação da saúde no Brasil. O primeiro artigo revisa a literatura sobre TIC em saúde e baseado em duas perspectivas teóricas – estudos Europeus acerca dos Sistemas de Informação em Saúde (SIS) nos Países em Desenvolvimento e estudos sobre Informação e Informática em Saúde, no âmbito do Movimento da Reforma Sanitária –, formula um modelo integrado que combina dimensões de análise e fatores contextuais para a compreensão dos SIS no Brasil. Já o segundo artigo apresenta os conceitos e teóricos e metodológicos da Teoria Ator-Rede (ANT), uma abordagem para o estudo de controvérsias associadas às descobertas científicas e inovações tecnológicas, por meio das redes de atores envolvidos em tais ações. Tal abordagem tem embasado estudos de SI desde 1990 e inspirou as análises dois artigos empíricos desta tese. Os dois últimos artigos foram redigidos a partir da análise da implantação de um SIS em um hospital público no Brasil ocorrida entre os anos de 2010 e 2012. Para a análise do caso, seguiram-se os atores envolvidos nas controvérsias que surgiram durante a implantação do SIS. O terceiro artigo se debruçou sobre as atividades dos analistas de sistema e usuários envolvidos na implantação do SIS. As mudanças observadas durante a implantação do sistema revelam que o sucesso do SIS não foi alcançado pela estrita e técnica execução das atividades incialmente planejadas. Pelo contrário, o sucesso foi construído coletivamente, por meio da negociação entre os atores e de dispositivos de interessamento introduzidos durante o projeto. O quarto artigo, baseado no conceito das Infraestruturas de Informação, discutiu como o sistema CATMAT foi incorporado ao E-Hosp. A análise revelou como a base instalada do CATMAT foi uma condição relevante para a sua escolha durante a implantação do E-Hosp. Além disso, descrevem-se negociações e operações heterogêneas que aconteceram durante a incorporação do CATMAT no sistema E-Hosp. Assim, esta tese argumenta que a implantação de um SIS é um empreendimento de construção coletiva, envolvendo analistas de sistema, profissionais de saúde, políticos e artefatos técnicos. Ademais, evidenciou-se como os SIS inscrevem definições e acordos, influenciando as preferências dos atores na área de saúde.
Resumo:
O objetivo deste trabalho é abordar uma das linhas de investigação que tenta explicar o comportamento dos indivíduos no voto, a teoria da escolha racional ou teoria econômica do voto, a qual defende que os eleitores votam em governantes ou partidos potencialmente capazes de trazer-lhes algum benefício social ou econômico. No entanto, a relação entre desempenho de indicadores socioeconômicos e o resultado das urnas não se mostra tão evidente. A elevada assimetria de informação presente entre eleitores e formuladores de políticas públicas, além do problema conhecido como bounded memory, pode ajudar a explicar a não identificação ou a frágil evidência de racionalidade econômica no voto. Uma forma de tentar dirimir esses problemas, particularmente no caso de eleições estaduais, é através da divulgação de sistemas de rankings estaduais, que sejam de simples interpretação para o eleitorado. Assim, é feita uma proposta de elaboração de um ranking de desenvolvimento estadual que, por fim, é utilizado para testar a presença de racionalidade econômica nas eleições estaduais brasileiras. Os resultados não mostraram indicações de escolha racional nas eleições estaduais brasileiras e reforçam o argumento de que há elevada assimetria de informação e de bounded memory, o que poderia ser dirimido, ao menos em parte, com a maior propagação de sistemas de rankings estaduais.
Resumo:
A gestão para resultados (GpR) tem adquirido importância crescente nos municípios brasileiros, assumindo diferentes funções no interior das organizações públicas. No entanto, implementação de sistemas de GpR no setor público pode vir acompanhada de novos problemas oriundos da complexidade da mensuração de resultados em ambientes expostos ao escrutínio social e político. Nesse contexto, o objetivo deste trabalho é analisar de forma crítica os sistemas de GpR implantados nas prefeituras de Rio de Janeiro e São Paulo, visando a estabelecer, com base na teoria, conexões entre as diferentes funções exercidas pelos sistemas de GpR e as disfunções vivenciadas pelos gestores públicos no cotidiano. Para tanto, foram mapeadas, com base na teoria, as diferentes funções desempenhadas pelos sistemas de GpR e separadas em três macrocategorias: desempenho, governança e política. A partir dessa categorização, foram delimitadas as possíveis disfunções da GpR relacionadas com as intersecções dessas diferentes macrocategorias. Com base nas categorias teóricas estabelecidas, foram coletados dados sobre a GpR nas duas prefeituras, com destaque para a entrevista de 12 gestores e 3 representantes da sociedade civil. Os achados de pesquisa permitiram demonstrar que a Prefeitura do Rio de Janeiro implementou um sistema de GpR voltado principalmente para a melhoria do desempenho, ao passo que São Paulo focou nas funções relacionadas à macrocategoria da governança. Em relação às disfunções, o Rio de Janeiro apresentou indícios de definição tecnocrátia das metas e gaming interno, ao passo que a Prefeitura de São Paulo esteve marcada por gaming externo, miopia e lock-in. Os resultados permitiram identificar ainda outras variáveis relevantes para o estudo das disfunções da GpR, como a cultura política, o envolvimento do prefeito no sistema, a entrada na agenda do tema da GpR, o grau de institucionalização do sistema de GpR. Os resultados demonstram que as diferentes funções assumidas por esses sistemas estão correlacionadas com as disfunções. O capítulo final explora essas possibilidades de correlações.
Resumo:
O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br
Resumo:
A videoaula conceitua a teoria dos grafos, que oferece a base de estruturas de representação para diversos problemas como listas, árvores, pilhas, filas, e outras. Destaca também a adjacência, laços e arestas múltiplas, o grau de um vértice, a notação, os subgrafos, os grafos isomorfos, o passeio e caminho, e, por fim, os grafos cíclicos e acíclicos.
Resumo:
Este trabalho compara as soluções disponibilizadas pelos sistemas Derive 5.0, Maple 6 e Mathematica 4.0 para problemas que encontramos no ensino secundário e também nos primeiros anos da universidade. Procuramos destacar os aspectos distintos entre cada um dos programas ao mesmo tempo que fazemos referência aos pontos em que tudo se passa de forma semelhante. Esta dissertação aborda o cálculo numérico, o cálculo simbólico, a programação e os gráficos. Para cada um dos assuntos é estudada a forma como se podem resolver os problemas através dos três sistemas comparando-se estas soluções. Inicialmente, é feita uma abordagem que permite ao utilizador adquirir os conhecimentos básicos acerca dos diversos programas. Tratamos de seguida de algumas questões relacionadas com o cálculo numérico e com algumas funções nomeadamente da Teoria dos Números. Referimos listas e funções e são analisadas diversas formas de manipular listas e os seus elementos bem como algumas áreas da Análise Matemática das quais destacamos as equações, a derivação e a integração compreendendo cálculo numérico e cálculo simbólico. Examinamos um vasto conjunto de operações definidas sobre matrizes (representadas como listas de listas) e polinómios que abrangem as operações mais comuns de cada um dos campos. Analisamos também a programação recursiva, a programação imperativa, a programação funcional e a programação por regras de reescrita. A abordagem aqui adoptada foi a de fornecer ao utilizador as construções chave mais importantes que cada paradigma de programação utiliza bem como as informações básicas acerca do funcionamento de cada uma delas de modo a permitir a resolução dos problemas propostos. Por último os gráficos sobre os quais incidiu a nossa análise foram os de uma e de duas variáveis representados no referencial cartesiano, gráficos estes que são os mais utilizados quer ao nível do ensino superior quer ao nível do ensino secundário. A qualidade e a facilidade de obter rapidamente as representações dão outra dimensão ao estudo dos gráficos principalmente quando estamos a falar de gráficos a três dimensões. A ideia de animação gráfica é também aqui abordada sendo evidente os benefícios da utilização da mesma nos programas em que é possível efectuá-la. Concluímos que na programação o Mathematica destaca-se em relação aos demais o mesmo se passando no Maple no respeitante à representação gráfica. O Derive permite que durante o contacto inicial seja mais fácil trabalhar e aprender a linguagem própria.
Resumo:
In the present time, public organizations are employing more and more solutions that uses information technology in order to ofer more transparency and better services for all citizens. Integrated Systems are IT which carry in their kernel features of integration and the use of a unique database. These systems bring several benefits and face some obstacles that make their adoption difficult. The conversion to a integrated system may take years and, thus, the study of the adoption of this IT in public sector organizations become very stimulant due to some peculiarities of this sector and the features of this technology. First of all, information about the particular integrated system in study and about its process of conversion are offered. Then, the researcher designs the configuration of the conversion process aim of this study the agents envolved and the moments and the tools used to support the process in order to elaborate the methodology of the conversion process understood as the set of procedures and tools used during all the conversion process. After this, the researcher points out, together with all the members of the conversion team, the negative and positive factors during the project. Finally, these factors were analysed through the Hospitality Theory lens which, in the researcher opinion, was very useful to understand the elements, events and moments that interfered in the project. The results consolidated empirically the Hospitality Theory presumptions, showing yet a limitation of this theory in the case in study
Resumo:
In this work we use Interval Mathematics to establish interval counterparts for the main tools used in digital signal processing. More specifically, the approach developed here is oriented to signals, systems, sampling, quantization, coding and Fourier transforms. A detailed study for some interval arithmetics which handle with complex numbers is provided; they are: complex interval arithmetic (or rectangular), circular complex arithmetic, and interval arithmetic for polar sectors. This lead us to investigate some properties that are relevant for the development of a theory of interval digital signal processing. It is shown that the sets IR and R(C) endowed with any correct arithmetic is not an algebraic field, meaning that those sets do not behave like real and complex numbers. An alternative to the notion of interval complex width is also provided and the Kulisch- Miranker order is used in order to write complex numbers in the interval form enabling operations on endpoints. The use of interval signals and systems is possible thanks to the representation of complex values into floating point systems. That is, if a number x 2 R is not representable in a floating point system F then it is mapped to an interval [x;x], such that x is the largest number in F which is smaller than x and x is the smallest one in F which is greater than x. This interval representation is the starting point for definitions like interval signals and systems which take real or complex values. It provides the extension for notions like: causality, stability, time invariance, homogeneity, additivity and linearity to interval systems. The process of quantization is extended to its interval counterpart. Thereafter the interval versions for: quantization levels, quantization error and encoded signal are provided. It is shown that the interval levels of quantization represent complex quantization levels and the classical quantization error ranges over the interval quantization error. An estimation for the interval quantization error and an interval version for Z-transform (and hence Fourier transform) is provided. Finally, the results of an Matlab implementation is given
Resumo:
Currently, one of the biggest challenges for the field of data mining is to perform cluster analysis on complex data. Several techniques have been proposed but, in general, they can only achieve good results within specific areas providing no consensus of what would be the best way to group this kind of data. In general, these techniques fail due to non-realistic assumptions about the true probability distribution of the data. Based on this, this thesis proposes a new measure based on Cross Information Potential that uses representative points of the dataset and statistics extracted directly from data to measure the interaction between groups. The proposed approach allows us to use all advantages of this information-theoretic descriptor and solves the limitations imposed on it by its own nature. From this, two cost functions and three algorithms have been proposed to perform cluster analysis. As the use of Information Theory captures the relationship between different patterns, regardless of assumptions about the nature of this relationship, the proposed approach was able to achieve a better performance than the main algorithms in literature. These results apply to the context of synthetic data designed to test the algorithms in specific situations and to real data extracted from problems of different fields
Resumo:
Este trabalho apresenta um levantamento dos problemas associados à influência da observabilidade e da visualização radial no projeto de sistemas de monitoramento para redes de grande magnitude e complexidade. Além disso, se propõe a apresentar soluções para parte desses problemas. Através da utilização da Teoria de Redes Complexas, são abordadas duas questões: (i) a localização e a quantidade de nós necessários para garantir uma aquisição de dados capaz de representar o estado da rede de forma efetiva e (ii) a elaboração de um modelo de visualização das informações da rede capaz de ampliar a capacidade de inferência e de entendimento de suas propriedades. A tese estabelece limites teóricos a estas questões e apresenta um estudo sobre a complexidade do monitoramento eficaz, eficiente e escalável de redes