850 resultados para Visão computacional. FPGA. Sistemas orientados a plataformas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La calidad de energía eléctrica incluye la calidad del suministro y la calidad de la atención al cliente. La calidad del suministro a su vez se considera que la conforman dos partes, la forma de onda y la continuidad. En esta tesis se aborda la continuidad del suministro a través de la localización de faltas. Este problema se encuentra relativamente resuelto en los sistemas de transmisión, donde por las características homogéneas de la línea, la medición en ambos terminales y la disponibilidad de diversos equipos, se puede localizar el sitio de falta con una precisión relativamente alta. En sistemas de distribución, sin embargo, la localización de faltas es un problema complejo y aún no resuelto. La complejidad es debida principalmente a la presencia de conductores no homogéneos, cargas intermedias, derivaciones laterales y desbalances en el sistema y la carga. Además, normalmente, en estos sistemas sólo se cuenta con medidas en la subestación, y un modelo simplificado del circuito. Los principales esfuerzos en la localización han estado orientados al desarrollo de métodos que utilicen el fundamental de la tensión y de la corriente en la subestación, para estimar la reactancia hasta la falta. Como la obtención de la reactancia permite cuantificar la distancia al sitio de falta a partir del uso del modelo, el Método se considera Basado en el Modelo (MBM). Sin embargo, algunas de sus desventajas están asociadas a la necesidad de un buen modelo del sistema y a la posibilidad de localizar varios sitios donde puede haber ocurrido la falta, esto es, se puede presentar múltiple estimación del sitio de falta. Como aporte, en esta tesis se presenta un análisis y prueba comparativa entre varios de los MBM frecuentemente referenciados. Adicionalmente se complementa la solución con métodos que utilizan otro tipo de información, como la obtenida de las bases históricas de faltas con registros de tensión y corriente medidos en la subestación (no se limita solamente al fundamental). Como herramienta de extracción de información de estos registros, se utilizan y prueban dos técnicas de clasificación (LAMDA y SVM). Éstas relacionan las características obtenidas de la señal, con la zona bajo falta y se denominan en este documento como Métodos de Clasificación Basados en el Conocimiento (MCBC). La información que usan los MCBC se obtiene de los registros de tensión y de corriente medidos en la subestación de distribución, antes, durante y después de la falta. Los registros se procesan para obtener los siguientes descriptores: a) la magnitud de la variación de tensión ( dV ), b) la variación de la magnitud de corriente ( dI ), c) la variación de la potencia ( dS ), d) la reactancia de falta ( Xf ), e) la frecuencia del transitorio ( f ), y f) el valor propio máximo de la matriz de correlación de corrientes (Sv), cada uno de los cuales ha sido seleccionado por facilitar la localización de la falta. A partir de estos descriptores, se proponen diferentes conjuntos de entrenamiento y validación de los MCBC, y mediante una metodología que muestra la posibilidad de hallar relaciones entre estos conjuntos y las zonas en las cuales se presenta la falta, se seleccionan los de mejor comportamiento. Los resultados de aplicación, demuestran que con la combinación de los MCBC con los MBM, se puede reducir el problema de la múltiple estimación del sitio de falta. El MCBC determina la zona de falta, mientras que el MBM encuentra la distancia desde el punto de medida hasta la falta, la integración en un esquema híbrido toma las mejores características de cada método. En este documento, lo que se conoce como híbrido es la combinación de los MBM y los MCBC, de una forma complementaria. Finalmente y para comprobar los aportes de esta tesis, se propone y prueba un esquema de integración híbrida para localización de faltas en dos sistemas de distribución diferentes. Tanto los métodos que usan los parámetros del sistema y se fundamentan en la estimación de la impedancia (MBM), como aquellos que usan como información los descriptores y se fundamentan en técnicas de clasificación (MCBC), muestran su validez para resolver el problema de localización de faltas. Ambas metodologías propuestas tienen ventajas y desventajas, pero según la teoría de integración de métodos presentada, se alcanza una alta complementariedad, que permite la formulación de híbridos que mejoran los resultados, reduciendo o evitando el problema de la múltiple estimación de la falta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As flutuações ambientais, tais como o ciclo dia-noite, as estações do ano e as variações de temperatura e humidade, são um desafio à sobrevivência dos seres vivos, os quais desenvolveram mecanismos de ajustamento e adaptação dos seus processos fisiológicos a essas variações cíclicas - o chamado Relógio Endógeno. Este relógio percebe a variação temporal, é regulado por diversos sincronizadores e, informa todo o organismo através de sistemas humorais e neurais. A Cronobiologia é um novo ramo da ciência que estuda os ritmos das funções biológicas relacionando-os com a saúde e com a doença, dando origem a outras ciências como a cronofarmacologia, a cronotoxicologia e a cronoterapia, cujos princípios (cronobiológicos) são hoje utilizados para, por exemplo, determinar a melhor hora do dia para a administração de um fármaco de forma a maximizar a eficácia e a minimizar as reacções adversas. A presente revisão pretende definir e explicar os conceitos básicos e o funcionamento do relógio endógeno e dos ritmos circadianos, defini-lo para os diferentes sistemas biológicos e, através da pele, demonstrar como o conhecimento prático destas especialidades, contribui, de forma aplicada, para o desenvolvimento do nosso conhecimento específico, ilustrando assim o estado-da-arte destes domínios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O bom funcionamento de uma empresa passa pela coordenação dos seus vários elementos, pela fluidez das suas operações diárias, pelo desempenho dos seus recursos, tanto humanos como materiais, e da interacção dos vários sistemas que a compõem. As tecnologias empresariais sentiram um desenvolvimento contínuo após a sua aparição, desde o processo básico, para gestão de processos de negócios (BPM), para plataformas de recursos empresariais (ERP) modernos como o sistema proprietário SAP ou Oracle, para conceitos mais gerais como SOA e cloud, baseados em standards abertos. As novas tecnologias apresentam novos canais de trânsito de informação mais rápidos e eficientes, formas de automatizar e acompanhar processos de negócio e vários tipos de infra-estruturas que podem ser utilizadas de forma a tornar a empresa mais produtiva e flexível. As soluções comerciais existentes permitem realizar estes objectivos mas os seus custos de aquisição podem revelar-se demasiado elevados para algumas empresas ou organizações, que arriscam de não se adaptar às mudanças do negócio. Ao mesmo tempo, software livre está a ganhar popularidade mas existem sempre alguns preconceitos sobre a qualidade e maturidade deste tipo de software. O objectivo deste trabalho é apresentar SOA, os principais produtos SOA comerciais e open source e realizar uma comparação entre as duas categorias para verificar o nível de maturidade do SOA open source em relação às soluções SOA proprietárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação situa-se no projeto de pesquisa intitulado "Um Modelo Computacional de Aprendizagem a Distância Baseada na Concepção Sócio- Interacionista". Este projeto se enquadra na visão de aprendizagem situada, isto é, na concepção de cognição como uma prática social baseada na utilização de linguagem, símbolos e signos. O objetivo é a construção de um ambiente de Educação a Distância, implementado como um sistema multiagente composto por agentes artificiais e agentes humanos, inspirando-se na teoria sócio-interacionista de Vygotsky. Nesta sociedade, todos os personagens (aprendizes e agentes artificiais) são modelados como agentes sociais integrados em um ambiente de ensino-aprendizagem. A arquitetura deste sistema é formada pelos seguintes agentes artificiais: agente diagnóstico, agente mediador, agente colaborativo, agente semiótico e agente social. Os agentes humanos que interagem com o sistema desempenham o papel de tutores, aprendizes ou ambos. Esta dissertação visa à concepção e à implementação de um dos agentes desta arquitetura: o agente semiótico. Esta concepção foi baseada na Engenharia Semiótica, em particular para a apresentação do material instrucional utilizado no processo de ensinoaprendizagem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tese buscou averiguar quais foram os efeitos, os impactos e modificações que ocorreram na dinâmica de funcionamento de fóruns do orçamento participativo, quando a este processo decisório de grupo em larga escala e com repercussões imediatas nas próprias comunidades decisoras se agregou um apoio computacional de pequena sofisticação, com o perfil de um sistema de apoio à decisão para grupos. Estas intervenções, talhadas sob a perspectiva quaseexperimental, levaram ao ambiente real de decisão um apoio derivado de modelos baseados em critérios e atributos para a hierarquização de demandas por obras de perfil público-social. A metodologia empregada, um esboço multimétodo com técnicas distintas de atuação por grupo trabalhado, incluindo nestas distinções o papel do pesquisador, foi levada a cabo em três regiões distintas do orçamento participativo. O pesquisador, enquanto ser observante, valeu-se de um diário de campo que ao lado dos tradicionais questionários usados em quaseexperimentos, funcionou como um coletor de dados, os quais foram suplementados com igual valia por entrevistas semi-estruturadas com os atores do processo. Técnicas elementares de estatística aliadas à interpretação dos dados qualitativos a partir de codificações sugeridas por técnicas de análise de conteúdo, forjaram um grande painel de dados, que permitiu apurar os impactos da adoção da tecnologia, bem como enquadrar os efeitos nas posturas dos grupos e dos atores participantes do processo. Como idéia conclusiva, o estudo permitiu estatuir que várias das situações em apoio à decisão em grupo ocorreram, alguns outros resultados foram inesperados e quiçá contraditórios em relação à história de pesquisa do tema apoio à decisão em grupo por computador e outros se revelaram promissores para futuras pesquisas. Por fim, argüi-se a necessidade de averiguar, em ambientes como o estudado, a relação real existente entre as conotações política e racional de tomada de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para reutilização, manutenção e refatoração, projetistas de sistemas de software, freqüentemente, precisam examinar o código fonte da aplicação para entender os detalhes dos sistemas desenvolvidos. As aplicações orientadas a objetos em geral, tornam-se coleções nebulosas de classes e implementações de métodos. Sem dúvida a habilidade de entender sistemas de software é largamente aumentada visualizando-se esses produtos em níveis mais altos de abstração. Os padrões de projeto demonstram um alto índice de abstração e são considerados uma ferramenta efetiva para o entendimento de sistemas de software orientados a objetos. Aplicações orientadas a objetos visualizadas como um sistema de interação de padrões requerem a descoberta, identificação e classificação de grupos de classes relacionadas. Estas visualizações podem representar qualquer padrão conhecido ou agrupamentos que executam uma tarefa abstrata e necessariamente não são uma solução de padrão conhecida. Os padrões de projeto descrevem, portanto, microarquiteturas que resolvem problemas arquitetônicos em sistemas de software orientados a objetos. É importante identificar estas microarquiteturas durante a fase de manutenção de aplicações orientadas a objetos. Faz-se necessário salientar que estas microarquiteturas aparecem freqüentemente distorcidas na aplicação fonte. O objeto deste trabalho é demonstrar a viabilidade de construir uma ferramenta para descobrir a utilização de padrões de projeto em aplicações Java. Assim, esta tese examina as características de alguns padrões, determinando a natureza do que faz um padrão ser detectável por intermédio de meios automatizados, e propõe algumas regras pelas quais um conjunto de padrões possa ser identificado. As regras são baseadas nos relacionamentos entre classes e objetos mediante observação dos modelos estático e dinâmico. Este trabalho também documenta o desenvolvimento do protótipo da ferramenta de inspeção, que tem por objetivo aplicar os processos de engenharia reversa e reflexão computacional sobre código Java, utilizando as informações adquiridas para detectar padrões de projeto. Finalmente, esta tese demonstra a utilização dessa ferramenta em um exemplo pequeno de aplicação Java e forma a base para trabalhos adicionais que investiguem a existência de diferentes padrões de projeto em sistemas de software construídos em Java.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A linguagem síncrona RS é destinada ao desenvolvimento de sistemas reativos. O presente trabalho tem como objetivo criar meios que facilitem o uso da linguagem RS no projeto e implementação desses sistemas, permitindo que, à partir da especificação de um sistema reativo, seja realizada a sua implementação de forma automática. Deste modo, a linguagem RS é utilizada para a descrição do comportamento de um sistema em um alto nível de abstração, antes de serfeitas a decomposição do sistema em componentes de software ou hardware. A implmentação do protótipo do sistema computacional dedicado é obtida através de uma síntese automática desse modelo de alto nível. Foram implementados geradores de código que utilizam o código objeto fornecido pelo compilador da linguagem RS. Os geradores fazem a tradução para a linguagem C, para a linguagem JAVA, ou para a linguagem de descrição de hardware VHDL. A partir da síntese desses códigos poderá ser obtida a implementação do sistema em um micrcoomputador comercial, em um microcomputador Java de dedicado (ASIP Java), ou em um hardware de aplicação específica (ASIC). Foram realizados estudos de caso representativos dos sistemas reativos embaraçados e de tempo rel. Estes estudos de caso serviram para validar os geradores de código bem como para analisar o uso da linguagem RS no projeto e implementação desses sistemas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.