1000 resultados para Computação
Resumo:
This paper addresses the capacitated lot sizing problem (CLSP) with a single stage composed of multiple plants, items and periods with setup carry-over among the periods. The CLSP is well studied and many heuristics have been proposed to solve it. Nevertheless, few researches explored the multi-plant capacitated lot sizing problem (MPCLSP), which means that few solution methods were proposed to solve it. Furthermore, to our knowledge, no study of the MPCLSP with setup carry-over was found in the literature. This paper presents a mathematical model and a GRASP (Greedy Randomized Adaptive Search Procedure) with path relinking to the MPCLSP with setup carry-over. This solution method is an extension and adaptation of a previously adopted methodology without the setup carry-over. Computational tests showed that the improvement of the setup carry-over is significant in terms of the solution value with a low increase in computational time.
Resumo:
PURPOSE: The main goal of this study was to develop and compare two different techniques for classification of specific types of corneal shapes when Zernike coefficients are used as inputs. A feed-forward artificial Neural Network (NN) and discriminant analysis (DA) techniques were used. METHODS: The inputs both for the NN and DA were the first 15 standard Zernike coefficients for 80 previously classified corneal elevation data files from an Eyesys System 2000 Videokeratograph (VK), installed at the Departamento de Oftalmologia of the Escola Paulista de Medicina, São Paulo. The NN had 5 output neurons which were associated with 5 typical corneal shapes: keratoconus, with-the-rule astigmatism, against-the-rule astigmatism, "regular" or "normal" shape and post-PRK. RESULTS: The NN and DA responses were statistically analyzed in terms of precision ([true positive+true negative]/total number of cases). Mean overall results for all cases for the NN and DA techniques were, respectively, 94% and 84.8%. CONCLUSION: Although we used a relatively small database, results obtained in the present study indicate that Zernike polynomials as descriptors of corneal shape may be a reliable parameter as input data for diagnostic automation of VK maps, using either NN or DA.
Resumo:
OBJETIVO: Desenvolver a instrumentação e o "software" para topografia de córnea de grande-ângulo usando o tradicional disco de Plácido. O objetivo é permitir o mapeamento de uma região maior da córnea para topógrafos de córnea que usem a técnica de Plácido, fazendo-se uma adaptação simples na mira. MÉTODOS: Utilizando o tradicional disco de Plácido de um topógrafo de córnea tradicional, 9 LEDs (Light Emitting Diodes) foram adaptados no anteparo cônico para que o paciente voluntário pudesse fixar o olhar em diferentes direções. Para cada direção imagens de Plácido foram digitalizadas e processadas para formar, por meio de algoritmo envolvendo elementos sofisticados de computação gráfica, um mapa tridimensional completo da córnea toda. RESULTADOS: Resultados apresentados neste trabalho mostram que uma região de até 100% maior pode ser mapeada usando esta técnica, permitindo que o clínico mapeie até próximo ao limbo da córnea. São apresentados aqui os resultados para uma superfície esférica de calibração e também para uma córnea in vivo com alto grau de astigmatismo, mostrando a curvatura e elevação. CONCLUSÃO: Acredita-se que esta nova técnica pode propiciar a melhoria de alguns processos, como por exemplo: adaptação de lentes de contato, algoritmos para ablações costumizadas para hipermetropia, entre outros.
Resumo:
The Lattes platform is the major scientific information system maintained by the National Council for Scientific and Technological Development (CNPq). This platform allows to manage the curricular information of researchers and institutions working in Brazil based on the so called Lattes Curriculum. However, the public information is individually available for each researcher, not providing the automatic creation of reports of several scientific productions for research groups. It is thus difficult to extract and to summarize useful knowledge for medium to large size groups of researchers. This paper describes the design, implementation and experiences with scriptLattes: an open-source system to create academic reports of groups based on curricula of the Lattes Database. The scriptLattes system is composed by the following modules: (a) data selection, (b) data preprocessing, (c) redundancy treatment, (d) collaboration graph generation among group members, (e) research map generation based on geographical information, and (f) automatic report creation of bibliographical, technical and artistic production, and academic supervisions. The system has been extensively tested for a large variety of research groups of Brazilian institutions, and the generated reports have shown an alternative to easily extract knowledge from data in the context of Lattes platform. The source code, usage instructions and examples are available at http://scriptlattes.sourceforge.net/.
Resumo:
This article describes the design, implementation, and experiences with AcMus, an open and integrated software platform for room acoustics research, which comprises tools for measurement, analysis, and simulation of rooms for music listening and production. Through use of affordable hardware, such as laptops, consumer audio interfaces and microphones, the software allows evaluation of relevant acoustical parameters with stable and consistent results, thus providing valuable information in the diagnosis of acoustical problems, as well as the possibility of simulating modifications in the room through analytical models. The system is open-source and based on a flexible and extensible Java plug-in framework, allowing for cross-platform portability, accessibility and experimentation, thus fostering collaboration of users, developers and researchers in the field of room acoustics.
Resumo:
A adoção da ação afirmativa denominada cotas nas universidades federais - reserva de vagas para estudantes que tenham cursado integralmente o ensino médio em escolas públicas - continua sendo polêmica, mesmo após a sanção da Lei nº.12.711 de 2012, o que torna oportuna a contribuição aos estudos a respeito da utilização desse sistema nas universidades públicas brasileiras. Este trabalho teve por objetivo estudar o desempenho acadêmico de alunos cotistas do Centro de Ciências Jurídicas e Econômicas e do Centro Tecnológico da Universidade Federal do Espírito Santo – UFES, no período de 2008 a 2013, considerando as duas entradas anuais nos referidos cursos. O presente estudo analisou o aproveitamento acadêmico dos alunos de 15 cursos de graduação ofertados pelos Centros nominados buscando saber em quais cursos e disciplinas existem diferenças significativas de desempenho, a partir do coeficiente de rendimento acadêmico (CRA) e da média final das disciplinas cursadas por alunos cotistas e não cotistas, visando a propor ações institucionais para a redução dessas diferenças. Na pesquisa, de caráter quantitativo, utilizou-se o método estatístico de análise de variância ANOVA. A partir das análises realizadas foi possível inferir a existência de diferenças de rendimento nos cursos de engenharia,principalmente em disciplinas de cálculo e álgebra. O curso de Direito, por sua vez, apresentou diferença significativa de desempenho, não obstante as médias não estarem abaixo do índice necessário para a aprovação. Quando a comparação é feita considerando o sexo, verificou-se no curso de Ciências Econômicas e Ciências da Computação uma disparidade significativa de rendimento em favor dos alunos do sexo feminino cotistas em detrimento dos não cotistas do mesmo sexo.
Resumo:
Este trabalho apresenta um serviço de reconfiguração dinâmica para Redes de Sensores sem Fio. O trabalho inclui o projeto e a definição de uma arquitetura conceitual que suporta a coleta de uma variedade de informações contextuais e provê uma abstração alto nível para especificação de roteamento sensível ao contexto através de reconfiguração de métricas de roteamento e parâmetros de comunicação. O objetivo da infraestrutura proposta é possibilitar a criação de regras que adaptem o comportamento da rede em tempo de execução, em função dessas informações contextuais. Uma implementação da arquitetura para o protocolo RPL e o sistema operacional Contiki foi realizada, mostrando a viabilidade da abordagem proposta.
Resumo:
Mapas Conceituais são representações gráficas do conhecimento de uma pessoa num dado momento e área de conhecimento. Por sua natureza investigativa, são utilizados como ferramentas de apoio em abordagens pedagógicas que objetivam promover a aprendizagem significativa. No entanto, o processo de avaliação de um mapa tende a ser custoso pois acarreta uma pesada carga de processamento cognitivo por parte do avaliador, já que este precisa mapear os conceitos e relações em busca de nuances de conhecimento alí presentes. Essa pesquisa tem por objetivo aumentar o nível de abstração nas interações entre o avaliador e os mapas conceituais fornecendo uma camada intermediária de inteligência computacional que favoreça a comunicação por meio de perguntas e respostas em linguagem natural, fornecendo ao avaliador ferramentas que lhe permita examinar o conteúdo do mapa conceitual sem exigir deste o mapeamento visual dos conceitos e relações presentes nos mapas avaliados. Uma ferramenta é prototipada e uma prova de conceito apresentada. A análise da arquitetura proposta permitiu definir uma arquitetura final com características que permitem potencializar o uso de mapas conceituais e facilitar diversas operações pedagógicas com estes. Essa pesquisa situa-se na área de investigação de sistemas de perguntas e resposta, aplicando técnicas de processamento de linguagem natural para análise da pergunta e interpretação do mapa conceitual e aplica técnica de inteligência artificial para inferir respostas às perguntas.
Resumo:
A partir do conceito da matriz funcional, surgiu a hipótese de que são os tecidos moles atuando sobre determinada peça óssea que determinam o processo de crescimento facial. A possibilidade de modificar a influência muscular, seja na fase de desenvolvimento facial, seja em pós-operatórios de cirurgia corretiva é de grande importância preventiva e deveria ser mais bem investigada, uma vez que poderia subtrair o número e magnitude destes procedimentos. DESENHO DO ESTUDO: Experimental em coelhos. OBJETIVO: Estimar a relevância da atividade muscular sobre o esqueleto facial, em coelhos de experimentação, durante sua fase de desenvolvimento facial. MATERIAL E MÉTODO: Foram estudados 37 coelhos de 2 meses de idade, divididos em grupo de estudo e grupo controle e seguidos por um período de 4 meses. Os animais do grupo de estudo tiveram seus nervos faciais seccionados no seu ramo cervical unilateralmente. O esqueleto da mesoestrutura facial era retirado para estudo morfométrico por programa de computação gráfica em fotografias digitalizadas realizadas nas peças. Os resultados obtidos sofreram análise estatística comparativa. CONCLUSÃO: Ausência de atividade muscular em uma metade da face produz desvio lateral da mesoestrutura facial para o mesmo lado em coelhos em desenvolvimento.
Resumo:
A sociedade atual é marcada por uma crescente competição entre as organizações, as quais para garantirem a sua sobrevivência têm que evoluir e utilizar a tecnologia de informação mais adequada. Num período em que as PMES portuguesas necessitam de reduzir custos e concentrarem-se mais no seu processo de negócio surge um novo paradigma tecnológico, a Computação na Nuvem, esta ainda é um paradigma bastante recente, onde os recursos de TI que apresentam características de elasticidade e dinâmicas são oferecidos ao cliente como um serviço, no qual este paga apenas o que consome (pagamento por utilização). A Cloud Computing com o seu novo paradigma permite às organizações, principalmente às PMES reduzirem custos, concentrarem-se no seu processo de negócio sem se preocuparem com a parte informática (cópias de segurança, assistência e perda de dados) e obter um retorno mais rápido do seu investimento. Este trabalho consiste no Estudo da Adoção Individual da Cloud Computing no contexto das PMEs Portuguesas, o qual apresenta como principais objetivos obter uma melhor compreensão do conceito Cloud Computing, entender a sua importância para os indivíduos das PMES, identificar os seus fatores de sucesso e insucesso e identificar as limitações sentidas de uma forma generalizada e de uma forma específica para as PMES Portuguesas. Para cumprir os objetivos mencionados anteriormente, efetuou-se uma extensa revisão de literatura, propôs-se um modelo conceptual de investigação com adaptações à Teoria Unificada de Aceitação e Uso de Tecnologia (UTAUT) e utilizou-se como instrumento de recolha de dados um questionário que foi enviado às PMES Portuguesas.
Resumo:
Interactive systems users still face several challenge. Besides current improvements in usability and intuitiveness users have to adapt to the systems proposed to satisfy their needs. For instance, they must learn how to achieve tasks, how to interact with the system, etc. This paper proposes a methodology to improve this situation supporting the use of interactive systems by users. To achieve this goal the approach is based on enriched task models and picture-driven computing. An example based on a text editor illustrates the approach.
Resumo:
Muitos têm argumentado que as sociedades industriais estão se tornando cada vez mais dependentes da tecnologia e, conseqüentemente, mais vulneráveis às falhas tecnológicas. Não obstante a difusão da tecnologia computacional, pouco é conhecido a respeito das falhas do computador, exceto, talvez, as que são muito comuns. Este artigo analisa as fontes de insegurança do computador e revê a extensão e o custo dos computadores inconfiáveis. Ao contrário dos articulistas anteriores, os autores argumentam que os computadores digitais são inerentemente não confiáveis por duas razões: primeira, são mais propensos a falhas totais, ao invés de parciais; e segunda, sua enorme complexidade significa que jamais poderão ser completamente testados antes de serem colocados em uso. Os autores descrevem em seguida várias tentativas institucionais para melhorar a confiabilidade, bem como possíveis soluções propostas pelos cientistas da computação, mas concluem que até agora nenhuma foi adequada. Em conseqüência, recomendam que os computadores não devam ser utilizados em aplicações onde haja risco de vida.
Resumo:
As ciências da computação, incluindo a cibernética e disciplinas associadas, são normalmente definidas e muitas vezes questionados do ponto de vista do controlo. Essa afirmação sublinha que essas ciências se encontram em continuidade com as tendências racionalistas e iluministas da modernidade. Neste artigo sustenta-se que, pelo contrário, o controlo passional e emocional dos «utilizadores» é pelo menos tão importante quanto os mecanismos de controlo técnico. O pressuposto geral da nossa hipótese é que uma série de impurezas provenientes da experiência ligadas à economia, política e à cultura, só são possíveis de ser articuladas através das ligações passionais. Estas ligações são ao mesmo tempo racionais e não racionais, e apenas no caso limite em que existisse um controlo técnico absoluto seria possível eliminar da técnica a dimensão do «humano».
Resumo:
A necessidade de poder computacional é crescente nas diversas áreas de actuação humana, tanto na indústria, como em ambientes académicos. Grid Computing permite a ligação de recursos computacionais dispersos de maneira a permitir a sua utilização mais eficaz, fornecendo aos utilizadores um acesso simplificado ao poder computacional de diversos sistemas. Os primeiros projectos de Grid Computing implicavam a ligação de máquinas paralelas ou aglomerados de alto desempenho e alto custo, disponíveis apenas em algumas instituições. Contrastando com o elevado custo dos super-computadores, os computadores pessoais e a Internet sofreram uma evolução significativa nos últimos anos. O uso de computadores dispersos em uma WAN pode representar um ambiente muito interessante para processamento de alto desempenho. Os sistemas em Grid fornecem a possibilidade de se utilizar um conjunto de computadores pessoais de modo a fornecer uma computação que utiliza recursos que de outra maneira estariam omissos. Este trabalho consiste no estudo de Grid Computing a nível de conceito e de arquitectura e numa análise ao seu estado actual hoje em dia. Como complemento foi desenvolvido um componente que permite o desenvolvimento de serviços para Grids (Grid Services) mais eficaz do que o modelo de suporte a serviços actualmente utilizado. Este componente é disponibilizado sob a forma um plug-in para a plataforma Eclipse IDE.
Resumo:
O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.