990 resultados para Simulação (Computadores digitais)
Resumo:
Este trabalho tem como objetivos apresentar de forma sucinta o funcionamento do modelo CERES-Wheat inserido na plataforma DSSAT 3.5, assim como apresentar os resultados obtidos das simulações realizadas com o modelo e os observados em experimento de campo, em especial a sua capacidade de detectar os efeitos da aplicação de N sob a fenologia e produtividade de grãos do trigo sob irrigação.
Resumo:
2009
Resumo:
Este documento foi concebido com o intuito de ressaltar a importância do acompanhamento da disponibilidade dos recursos de uma rede de computadores. O presente trabalho consiste de um procedimento para a implementação da ferramenta CACTI, que é um software para monitoramento da disponibilidade de máquinas e serviços de uma rede de computadores, e também para a inserção dos ativos de rede que se deseja gerenciar por meio dessa ferramenta. Antes da apresentação da ferramenta CACTI, é feita uma breve explanação de alguns entre os muitos softwares de monitoramento existentes no mercado. Este trabalho destina-se a facilitar a tarefa de gerenciamento de uma rede de computadores a todos os usuários, que de alguma forma necessitem, de forma clara e objetiva, saber da disponibilidade de seus recursos, seja de forma imediata ou ao longo de um período de tempo.
Resumo:
RESUMO: Existem vários métodos para avaliar o crescimento da vegetação e a taxa de cobertura do solo. Medidas precisas e rápidas podem ser obtidas do tratamento digital de imagens geradas de câmeras fotográficas ou de vídeo. Há disponível, no mercado, diversos processadores de imagens que apresentam funções básicas semelhantes, mas com certas particularidades que poderão trazer maior benefício para o usuário, dependendo da aplicação. O SPRING, desenvolvido pelo INPE, é de domínio público, sendo mais abrangente do que um processador de imagens, incluindo funções de geoprocessamento. O ENVI foi desenvolvido para a análise de imagens multiespectrais e hiperespectrais, podendo também ser utilizado para o processamento de imagens obtidas de câmeras de vídeo, por exemplo. O KS-300 é um conjunto de hardware e de software destinado ao processamento e à quantificação de imagens microscópicas, permitindo a captação direta das imagens geradas por meio de lupas, microscópios eletrônicos ou câmeras de vídeo. O SIARCS foi desenvolvido pela Embrapa Instrumentação Agropecuária para tornar mais ágil o processo de captação de dados de um sistema. Este trabalho apresenta os fundamentos teóricos básicos envolvidos na técnica de análise de imagens, com as principais características dos softwares citados acima e sua aplicação na quantificação da taxa de crescimento e da cobertura do solo por espécies vegetais. ABSTRACT: Several methods exist to evaluate the growth of the vegetation and the tax of covering of the soil. Necessary and fast measures can be obtained of the digital treatment of generated images of photographic cameras or of video. There is available, in the market, several processors of images that you/they present similar basic functions, but with certain particularities that can bring larger benefit for the user, depending on the application. SPRING, developed by INPE, it is public domain, being including than a processor of images, including functions. ENVI was developed for the analysis of images multiespectrais and hiperespectrais, could also be used for the processing of obtained images of video cameras, for instance. The KS-300 it is a hardware group and software destined to the processing and quantification of microscopic images, allowing the direct reception of the images generated through magnifying glasses, eletronic microscopes or video cameras. SIARCS was developed by Embrapa Agricultural Instrumentation to turn more agile the process of reception of data of a system. This work presents the basic theoretical foundations involved in the technique of analysis of images, with the main characteristics of the softwares mentioned above and his application in the quantification of the growth tax and of the covering of the soil for vegetable species.
Resumo:
Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.
Resumo:
O trabalho apresentado nesta dissertação teve por objectivo principal a concepção, modelação e desenvolvimento de uma plataforma de middleware que permitisse a integração de sistemas de informação, em todos os seus níveis (dados, lógico e apresentação), perfazendo uma federação de bibliotecas digitais distribuídas e ecléticas. Para este fim, foram estudadas as várias abordagens de modelação e organização das bibliotecas digitais, assim como os diversos sistemas e tecnologias de suporte existentes no momento inicial do trabalho. Compreendendo a existência de muitas lacunas ainda neste domínio, nomeadamente ao nível da interoperabilidade de sistemas heterogéneos e integração da semântica de metadados, decidiu-se proceder a um trabalho de investigação e desenvolvimento que pudesse apresentar eventuais soluções para o preenchimento de tais lacunas. Desta forma, surgem neste trabalho duas tecnologias, o XML e o Dublin Core, que servem de base a todas as restantes tecnologias usadas para a interoperabilidade e para a integração. Ainda utilizando estas tecnologias base, foram estudados e desenvolvidos meios simples, mas eficientes, de salvaguarda, indexação e pesquisa de informação, tentando manter a independência face aos grandes produtores de bases de dados, que só por si não resolvem alguns dos problemas mais críticos da investigação no domínio das bibliotecas digitais. ABSTRACT: The main objective of the work presented in this dissertation is the design, modulation and development of a middleware framework to allow information systems interoperability, in all their scope (data, logic and presentation), to accomplish a distributed and eclectic digital libraries federation. Several modulations and organizations were approached, and several support systems and technologies were studied. Understanding the existence of many gaps in this domain, namely in heterogeneous information systems interoperation and metadata semantic integration, it was decided to conduct a research and development work, which, eventually, could present some solutions to fill in these gaps. In this way, two technologies, XML and Dublin Core, appear to serve as the basis of all remaining technologies, to interoperate and to achieve semantic integration. Using yet these technologies, it was also studied and developed simple means, but efficient ones, to save, index and query information, preserving the independence from major data base producers, which by their selves don’t solve critical problems in the digital libraries research domain.
Resumo:
In an information-driven society where the volume and value of produced and consumed data assumes a growing importance, the role of digital libraries gains particular importance. This work analyzes the limitations in current digital library management systems and the opportunities brought by recent distributed computing models. The result of this work is the implementation of the University of Aveiro integrated system for digital libraries and archives. It concludes by analyzing the system in production and proposing a new service oriented digital library architecture supported in a peer-to-peer infrastructure
Resumo:
In the modern society, communications and digital transactions are becoming the norm rather than the exception. As we allow networked computing devices into our every-day actions, we build a digital lifestyle where networks and devices enrich our interactions. However, as we move our information towards a connected digital environment, privacy becomes extremely important as most of our personal information can be found in the network. This is especially relevant as we design and adopt next generation networks that provide ubiquitous access to services and content, increasing the impact and pervasiveness of existing networks. The environments that provide widespread connectivity and services usually rely on network protocols that have few privacy considerations, compromising user privacy. The presented work focuses on the network aspects of privacy, considering how network protocols threaten user privacy, especially on next generation networks scenarios. We target the identifiers that are present in each network protocol and support its designed function. By studying how the network identifiers can compromise user privacy, we explore how these threats can stem from the identifier itself and from relationships established between several protocol identifiers. Following the study focused on identifiers, we show that privacy in the network can be explored along two dimensions: a vertical dimension that establishes privacy relationships across several layers and protocols, reaching the user, and a horizontal dimension that highlights the threats exposed by individual protocols, usually confined to a single layer. With these concepts, we outline an integrated perspective on privacy in the network, embracing both vertical and horizontal interactions of privacy. This approach enables the discussion of several mechanisms to address privacy threats on individual layers, leading to architectural instantiations focused on user privacy. We also show how the different dimensions of privacy can provide insight into the relationships that exist in a layered network stack, providing a potential path towards designing and implementing future privacy-aware network architectures.
Resumo:
Com a preocupação de suprir lacunas evidenciadas pelo ensino tradicional típico do Curso de Contabilidade e Administração do Instituto Superior de Contabilidade e Administração do Porto, introduziu-se no seu sistema de ensino as unidades curriculares de Projeto de Simulação Empresarial I e II (PSE I e PSE II), que, pela sua singularidade e especificidades, denominamos de Ambiente Empresarial. A particularidade deste processo de formação, centrado no desenvolvimento de competências, molda a metodologia do ensino, da aprendizagem e da avaliação. De destacar que o sistema de avaliação das aprendizagens introduzido está construído numa base informática de recolha contínua e ponderação sistemática de uma série de indicadores. A presente tese tem como objetivo estudar as potencialidades e constrangimentos do sistema de avaliação utilizado nas unidades curriculares referidas. Pretendemos, em particular, analisar em que medida este sistema beneficia o sucesso escolar dos estudantes, em resultado de uma melhoria no processo de aprendizagem e, consequentemente, no desenvolvimento das competências dos estudantes. No decorrer dos anos letivos de 2008-2009 e de 2009-2010, segundo e primeiro semestres, respetivamente, recolhemos dados qualitativos e quantitativos através de questionários aos estudantes e entrevistas aos docentes e ao responsável pela coordenação das unidades curriculares. Os resultados do estudo levantaram uma série de questões relacionadas com a avaliação e a forma como esta desenvolve nos estudantes uma diferente postura no que concerne ao processo de ensino e aprendizagem. A centralidade no estudante como foco deste sistema de avaliação possibilita a autorregulação da aprendizagem através da retroação. O trabalho individual e de grupo apresentam-se como principais fatores no desenvolvimento das competências genéricas (relacionais) e comportamentais.
Resumo:
O reconhecimento da dimensão criativa, participativa e social da rede trouxe profundas alterações à forma como se percebem e compreendem as questões relacionadas com a identidade, a educação, a prática e o conhecimento. Num cenário caraterizado pela conectividade e pela facilidade de acesso a pessoas e conteúdos, a rede oferece aos indivíduos um espaço onde podem interagir, trabalhar na sua aprendizagem, trocar experiências e construir uma identidade e reputação acessíveis a toda a comunidade. Quando se torna praticamente impossível permanecer fora do mundo digital e, consequentemente, da produção de uma identidade online (Costa e Torres, 2011; Warburton, 2009), a presença construída pelo indivíduo na rede surge como um currículo vitae ativo e dinâmico, revelador não apenas das competências adquiridas e certificadas em contextos de aprendizagem formais como daquelas desenvolvidas pela interação com os pares, pela partilha e pela comunicação. Partindo da análise da utilização de uma plataforma suportada institucionalmente (i.e. SAPO Campus), o presente trabalho de investigação tem como principal objetivo a análise e caraterização da construção da identidade online de um grupo de alunos do Mestrado em Comunicação Multimédia da Universidade de Aveiro num espaço providenciado pela instituição de ensino que frequentam. Com recurso a inquéritos por questionário, entrevistas em profundidade (realizadas aos participantes no estudo e a profissionais da área da comunicação e gestão de carreiras) e observação direta (análise quantitativa e qualitativa dos conteúdos publicados pelos participantes no SAPO Campus e em duas redes informais), procurou-se ainda caraterizar e analisar a identidade construída em espaços formais e informais, e aferir a importância – para alunos, instituição e mercado – da identidade online enquanto espaço de manifestação e divulgação de competências. Ainda que circunscrita ao contexto específico do Mestrado em Comunicação Multimédia e mais especificamente aos alunos cuja identidade online foi objeto de estudo, análise dos dados permite avançar que, de facto, os alunos estão conscientes da sua própria identidade online bem como da relevância de construir uma identidade e reputação sólidas e autênticas, que reflitam as suas competências e capacidades enquanto aprendentes e profissionais. Assim, poder-se-á avançar que no SAPO Campus os alunos estão a construir uma identidade online mais formal e cuidada, editando e selecionando os conteúdos de acordo com o contexto. Neste espaço, a maioria das publicações está diretamente relacionada com os trabalhos de investigação dos participantes, que recorrem à sua partilha nas redes informais para aumentar a visibilidade e exposição dos conteúdos publicados. Os participantes no estudo revelaram ainda valorizar o sentimento de segurança providenciado pelas tecnologias institucionais, bem como a possibilidade de construir uma identidade numa plataforma associada à sua instituição de ensino. Do estudo efetuado resultou ainda uma proposta de um modelo para a análise da identidade online, que poderá ser utilizado na análise da presença dos indivíduos em ambientes online formais e informais. Apresentando a identidade online como uma realidade assente na representação digital, na gestão da privacidade e na reputação construída na rede, o modelo foi aplicado aos dados recolhidos pelo estudo, conduzindo ao desenho de duas grandes formas de estar na rede: identidade orientada pelo contexto, e identidade orientada pelo utilizador. Quando as caraterísticas dos mundos digitais alteram a forma de produção da identidade e num cenário onde a contextualização de dados e informação assume uma importância crescente, este estudo de caso poderá contribuir para o conhecimento dos processos de construção da identidade em espaços formais e informais, da forma como os indivíduos gerem e constroem a sua identidade online, e ainda sobre a importância e o impacto da construção de uma identidade online consciente e credível para a reputação dos indivíduos e das Instituições de Ensino Superior.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.
Resumo:
Neste trabalho apresenta-se uma metodologia para a avaliação da fiabilidade de estruturas de betão armado. A metodologia recorre a uma simulação numérica pelo método de Monte Carlo, com adopção de uma técnica de amostragem estratificada de redução de variância, vulgarmente designada por hipercubo latino, para a obtenção da probabilidade de não ser excedido o estado limite último em causa. Aplicou-se a metodologia a um caso prático.
Resumo:
Tese de dout., Ciências e Tecnologias do Ambiente (Modelação Ambiental), Univ. do Algarve, 1999