845 resultados para Processamento paralelo (Computadores)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

2004

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta publicação tem por finalidade apresentar uma descrição das principais espécies de insetos e ácaros praga da cultura do tomateiro industrial e das injúrias decorrentes de seu ataque, bem como das técnicas utilizadas no monitoramento e das medidas de controle, visando à redução de perdas econômicas e a sustentabilidade do setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o Estado do Acre apresenta forte aptidão e tradição extrativistas, possuindo cerca de dois terços de sua área total ocupados por reservas extrativistas, áreas indígenas e outras áreas de conservação e preservação. No entanto, o modelo tradicional de extrativismo não-madeireiro, praticado ao longo deste século, caracterizado pelo baixo nível tecnológico, tem se mostrado não-sustentável, sob o ponto de vista econômico e social, diante da estrutura de mercado local e externo, especialmente em sua baixa capacidade competitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A valorização de diferentes resíduos industriais provenientes dosector de tratamento/revestimento de superfícies metálicas pode ser obtida utilizando-os como matérias-primas na formulação de pigmentos cerâmicos, sintetizados pelo método cerâmico convencional. Neste trabalho avaliou-se a viabilidade de incorporar lamas geradas pelos processos de (i) anodização, ricas em alumínio, (ii) de niquelagem e cromagem de torneiras, usadas como fonte de níquel e crómio, e (iii) da decapagem química de aços de uma trefilaria, ricas em ferro, utilizadas por si só, ou em conjunto com matérias-primas comerciais, para a obtenção depigmentos cerâmicos que coram, de forma estável, diversas matrizes cerâmicas e vítreas. Esta solução assegura ainda a inertização de potenciaisespécies perigosas presentes nos resíduos, resultando produtos inócuospara a saúde pública. Procedeu-se à caracterização de cada resíduo, em termos de composição química e mineralógica, comportamento térmico, grau de toxicidade, distribuição granulométrica, teor de humidade, etc. Verificou-se a constância das características das lamas, recorrendo à análise de lotes recolhidos em momentos distintos. Os resíduos são essencialmente constituídos por hidróxidos metálicos e foram utilizados após secagem e desagregação. No entanto, a lama de anodização de alumínio sofreu um tratamento térmico suplementar a 1400ºC. O método de síntese dos pigmentos englobou as seguintes etapas: (i) doseamento; (ii) homogeneização; (iii) calcinação; (iv) lavagem e moagem.Procedeu-se à caracterização dos pigmentos, avaliando a cor por espectroscopia de reflectância difusae pelo método CIELAB e determinando as características físico-químicas relevantes. Posteriormente, testou-se o seu desempenho em produtos cerâmicos distintos (corpos e vidrados), aferindo o desempenho cromático e a estabilidade. Numa primeira fase, desenvolveram-se e caracterizaram-se tipos distintos de pigmentos: (i) com base na estrutura do corundo (ii) verde Victória deuvarovite (iii) violeta de cassiterite com crómio (iv) pigmento carmim de malaiaíte; (v)pretos e castanhos com base na estrutura da espinela. Aprofundaram-se depois os estudos do pigmento carmim de malaiaítee do pigmento preto com base na estrutura da espinela. O pigmento carmim de malaiaíte, CaSnSiO5:Cr2O3, é formulado coma lama gerada no processo de niquelagem e cromagem. Avaliou-se a influência do teor de lama na temperatura de síntese e na qualidade cromática, em comparação com um pigmento formulado com reagentes puros. O pigmento preto com estrutura de espinela de níquel, crómio e ferro, foii formulado exclusivamente a partir das lamas geradas nos processos de cromagem/niquelagem e de decapagem química do aço. Avaliaram-se as características cromáticas e o grau de inertização dos elementos tóxicospresentes, em função da estequiometria e do tratamento térmico. Estudou-se ainda um novo sistema com base na estrutura da hibonite(CaAl12O19), que permite a obtenção de pigmentos azuis e que utiliza a lama de cromagem e niquelagem. As espécies cromóforas (Ni2+ ou Co2+) assumem coordenação tetraédrica quando substituem os iões Al3+ que ocupam as posições M5 da rede da hibonite. A formação simultânea de anortite permite reduzir a temperatura de síntese.Para além do carácter inovador deste pigmento de dissolução sólida, a qualidade cromática e a sua estabilidade são interessantes. Além disso, os teores de cobalto ou níquel são reduzidosrelativamente aos utilizados em formulações comerciais de pigmentos azuis, o que se traduz em importantes vantagens económicas e ambientais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os Sistemas Embarcados Distribuídos (SEDs) estão, hoje em dia, muito difundidos em vastas áreas, desde a automação industrial, a automóveis, aviões, até à distribuição de energia e protecção do meio ambiente. Estes sistemas são, essencialmente, caracterizados pela integração distribuída de aplicações embarcadas, autónomas mas cooperantes, explorando potenciais vantagens em termos de modularidade, facilidade de manutenção, custos de instalação, tolerância a falhas, entre outros. Contudo, o ambiente operacional onde se inserem estes tipos de sistemas pode impor restrições temporais rigorosas, exigindo que o sistema de comunicação subjacente consiga transmitir mensagens com garantias temporais. Contudo, os SEDs apresentam uma crescente complexidade, uma vez que integram subsistemas cada vez mais heterogéneos, quer ao nível do tráfego gerado, quer dos seus requisitos temporais. Em particular, estes subsistemas operam de forma esporádica, isto é, suportam mudanças operacionais de acordo com estímulos exteriores. Estes subsistemas também se reconfiguram dinamicamente de acordo com a actualização dos seus requisitos e, ainda, têm lidar com um número variável de solicitações de outros subsistemas. Assim sendo, o nível de utilização de recursos pode variar e, desta forma, as políticas de alocação estática tornam-se muito ineficientes. Consequentemente, é necessário um sistema de comunicação capaz de suportar com eficácia reconfigurações e adaptações dinâmicas. A tecnologia Ethernet comutada tem vindo a emergir como uma solução sólida para fornecer comunicações de tempo-real no âmbito dos SEDs, como comprovado pelo número de protocolos de tempo-real que foram desenvolvidos na última década. No entanto, nenhum dos protocolos existentes reúne as características necessárias para fornecer uma eficiente utilização da largura de banda e, simultaneamente, para respeitar os requisitos impostos pelos SEDs. Nomeadamente, a capacidade para controlar e policiar tráfego de forma robusta, conjugada com suporte à reconfiguração e adaptação dinâmica, não comprometendo as garantias de tempo-real. Esta dissertação defende a tese de que, pelo melhoramento dos comutadores Ethernet para disponibilizarem mecanismos de reconfiguração e isolamento de tráfego, é possível suportar aplicações de tempo-real críticas, que são adaptáveis ao ambiente onde estão inseridas.Em particular, é mostrado que as técnicas de projecto, baseadas em componentes e apoiadas no escalonamento hierárquico de servidores de tráfego, podem ser integradas nos comutadores Ethernet para alcançar as propriedades desejadas. Como suporte, é fornecida, também, uma solução para instanciar uma hierarquia reconfigurável de servidores de tráfego dentro do comutador, bem como a análise adequada ao modelo de escalonamento. Esta última fornece um limite superior para o tempo de resposta que os pacotes podem sofrer dentro dos servidores de tráfego, com base unicamente no conhecimento de um dado servidor e na hierarquia actual, isto é, sem o conhecimento das especifidades do tráfego dentro dos outros servidores. Finalmente, no âmbito do projecto HaRTES foi construído um protótipo do comutador Ethernet, o qual é baseado no paradigma “Flexible Time-Triggered”, que permite uma junção flexível de uma fase síncrona para o tráfego controlado pelo comutador e uma fase assíncrona que implementa a estrutura hierárquica de servidores referidos anteriormente. Além disso, as várias experiências práticas realizadas permitiram validar as propriedades desejadas e, consequentemente, a tese que fundamenta esta dissertação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The electronic storage of medical patient data is becoming a daily experience in most of the practices and hospitals worldwide. However, much of the data available is in free-form text, a convenient way of expressing concepts and events, but especially challenging if one wants to perform automatic searches, summarization or statistical analysis. Information Extraction can relieve some of these problems by offering a semantically informed interpretation and abstraction of the texts. MedInX, the Medical Information eXtraction system presented in this document, is the first information extraction system developed to process textual clinical discharge records written in Portuguese. The main goal of the system is to improve access to the information locked up in unstructured text, and, consequently, the efficiency of the health care process, by allowing faster and reliable access to quality information on health, for both patient and health professionals. MedInX components are based on Natural Language Processing principles, and provide several mechanisms to read, process and utilize external resources, such as terminologies and ontologies, in the process of automatic mapping of free text reports onto a structured representation. However, the flexible and scalable architecture of the system, also allowed its application to the task of Named Entity Recognition on a shared evaluation contest focused on Portuguese general domain free-form texts. The evaluation of the system on a set of authentic hospital discharge letters indicates that the system performs with 95% F-measure, on the task of entity recognition, and 95% precision on the task of relation extraction. Example applications, demonstrating the use of MedInX capabilities in real applications in the hospital setting, are also presented in this document. These applications were designed to answer common clinical problems related with the automatic coding of diagnoses and other health-related conditions described in the documents, according to the international classification systems ICD-9-CM and ICF. The automatic review of the content and completeness of the documents is an example of another developed application, denominated MedInX Clinical Audit system.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In Mobile Ad hoc NETworks (MANETs), where cooperative behaviour is mandatory, there is a high probability for some nodes to become overloaded with packet forwarding operations in order to support neighbor data exchange. This altruistic behaviour leads to an unbalanced load in the network in terms of traffic and energy consumption. In such scenarios, mobile nodes can benefit from the use of energy efficient and traffic fitting routing protocol that better suits the limited battery capacity and throughput limitation of the network. This PhD work focuses on proposing energy efficient and load balanced routing protocols for ad hoc networks. Where most of the existing routing protocols simply consider the path length metric when choosing the best route between a source and a destination node, in our proposed mechanism, nodes are able to find several routes for each pair of source and destination nodes and select the best route according to energy and traffic parameters, effectively extending the lifespan of the network. Our results show that by applying this novel mechanism, current flat ad hoc routing protocols can achieve higher energy efficiency and load balancing. Also, due to the broadcast nature of the wireless channels in ad hoc networks, other technique such as Network Coding (NC) looks promising for energy efficiency. NC can reduce the number of transmissions, number of re-transmissions, and increase the data transfer rate that directly translates to energy efficiency. However, due to the need to access foreign nodes for coding and forwarding packets, NC needs a mitigation technique against unauthorized accesses and packet corruption. Therefore, we proposed different mechanisms for handling these security attacks by, in particular by serially concatenating codes to support reliability in ad hoc network. As a solution to this problem, we explored a new security framework that proposes an additional degree of protection against eavesdropping attackers based on using concatenated encoding. Therefore, malicious intermediate nodes will find it computationally intractable to decode the transitive packets. We also adopted another code that uses Luby Transform (LT) as a pre-coding code for NC. Primarily being designed for security applications, this code enables the sink nodes to recover corrupted packets even in the presence of byzantine attacks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho apresentado tem por objetivo contribuir para a valorização da borracha proveniente de pneus em fim de vida, assente em princípios de sustentabilidade ambiental. A abordagem adotada para a concretização deste objetivo consiste na incorporação de borracha de pneus em formulações de base termoplástica e elastomérica (TPE), adequadas ao processo de moldação por injeção. São desenvolvidos estudos sobre a morfologia, propriedades mecânicas, térmicas e reológicas das ligas poliméricas à base de granulado de borracha de pneu (GTR). A falta de adesão entre o GTR e a matriz polimérica leva à degradação das propriedades mecânicas dos materiais obtidos. A estratégia explorada passa pela utilização de um elastómero para promover o encapsulamento do GTR e, desta forma, procurar obter ligas com propriedades mecânicas características de um TPE. São analisadas ligas ternárias (TPEGTR) compostas por polipropileno (PP) de elevada fluidez, GTR e elastómero virgem. O efeito da presença de diferentes elastómeros nas ligas é analisado neste trabalho: um elastómero de etilenopropileno- dieno (EPDM), e um novo elastómero de etileno-propileno (EPR) obtido por catálise metalocénica. O estudo da morfologia das ligas obtidas mostra haver interação entre os materiais, sendo possível inferir a viabilidade da estratégia adotada para promover a adesão do GTR. A incorporação de elastómero promove o aumento da resistência ao impacto e da extensão na rotura nas ligas, o que é atribuído, fundamentalmente, ao encapsulamento do GTR e ao aumento da tenacidade da matriz termoplástica. Com o objetivo de avaliar a influência da estrutura cristalina das ligas TPEGTR no seu comportamento mecânico, procede-se à análise do processo de cristalização sob condições isotérmicas e não isotérmicas. Neste estudo, é avaliado o efeito da presença dos materiais que constituem a fase elastomérica na cinética de cristalização. Para cada uma das ligas desenvolvidas, recorre-se ao modelo de Avrami para avaliar o efeito da temperatura no mecanismo de nucleação, na morfologia das estruturas cristalinas e na taxa de cristalização. Recorre-se à reometria capilar para estudar, sob condições estacionárias, o comportamento reológico das ligas TPEGTR. O modelo de Cross-WLF é utilizado para avaliar o comportamento reológico de todos os materiais, obtendo-se resultados similares àqueles obtidos experimentalmente. O comportamento reológico dos polímeros PP, EPR e EPDM é do tipo reofluidificante, tendo o EPR um comportamento reológico similar ao do PP e o EPDM um comportamento reo-fluidificante mais pronunciado. Em todas as ligas analisadas o comportamento reológico revela-se do tipo reo-fluidificante, sendo que a presença de GTR promove o aumento da viscosidade. Os parâmetros obtidos do modelo de Cross-WLF são utilizados para realizar a simulação da etapa de injeção recorrendo a um software comercial. Os resultados obtidos são validados experimentalmente pelo processo de moldação por injeção, evidenciando uma boa adequabilidade da aplicação deste modelo a estas ligas. O trabalho desenvolvido sobre ligas TPEGTR, constitui um contributo para a valorização da borracha proveniente de pneus em fim de vida, assente em princípios de sustentabilidade ambiental.