900 resultados para Inteligência Artificial


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente estudo teve como objetivo verificar e apontar quais são as práticas de gestão do conhecimento e as ferramentas de tecnologia da informação e comunicação a ela associadas, mais utilizadas em empresas atuantes na indústria de software no Brasil. Para tanto, foi delineado um estudo descritivo de natureza quantitativa que teve como método de pesquisa o levantamento de informações junto a essas empresas. Assim, foram aplicados questionários a 319 funcionários de 15 empresas de software de grande e médio porte atuantes no Brasil. Como resultados, as práticas de gestão do conhecimento mais verificadas são, nesta ordem de prioridade: reuniões e conferências virtuais, treinamentos virtuais, treinamentos presenciais, e-learning, call center/help desk/suporte online, portal corporativo, biblioteca corporativa, sistema de avaliação, centros de inovação, mapeamento de processos e, por fim, gestão da inovação. Outra forma de analisar os resultados encontrados considera uma visão baseada nas diferentes dimensões de práticas de gestão do conhecimento. Nesse contexto, a categoria de práticas de gestão do conhecimento que mais se evidenciou na pesquisa foi a dimensão estratégia. Há de se ressaltar que as práticas tratadas isoladamente obtiveram um comportamento diverso das práticas agrupadas em dimensões. Assim, não necessariamente o desempenho de determinada dimensão (e suas respectivas práticas) coincide com o desempenho das práticas isoladamente. Já no tocante às ferramentas de tecnologia da informação e comunicação empregadas na gestão do conhecimento das empresas pesquisadas, as mais indicadas pelos respondentes foram: e-mail, telefone via internet, telefone celular/rádio, intranet; servidores web e navegadores, telefone fixo, mensagens instantâneas; portal corporativo e treinamento baseado em computador. Além da observação das ferramentas isoladamente, também foi possível apurar o desempenho das diferentes dimensões de ferramentas de tecnologia da informação e comunicação voltadas à gestão do conhecimento. Assim, a categoria de ferramentas que demonstrou maior influência foi a dimensão inteligência artificial. Também aqui deve-se atentar para o fato de que a observação individual das ferramentas acaba por oferecer um resultado diverso do apurado quanto aos indicadores agrupados em dimensões. Em função disso, há de se sublinhar que o desempenho de determinada ferramenta, de forma independente, pode não coincidir com o desempenho de sua respectiva dimensão.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este artigo constitui uma reflexão sobre os modelos teóricos que atualmente problematizam as conceções de significado e de referência. Na sequência desta reflexão, referimos as implicações metodológicas que a atual conceção de significado imprime à semântica, acarretando a observação do uso real das expressões linguísticas e daí a importância dos métodos quantitativos baseados no corpus. Decorrente da afirmação da dimensão pragmática da linguagem e da anulação das tradicionais oposições entre sintaxe, semântica e léxico, em linguística, na segunda metade do século XX, assiste-se a uma renovação teórica e metodológica e à criação de novas áreas disciplinares. Nos anos 80 do século XX, estabelece-se um vínculo entre a linguística, a informática e a psicologia cognitiva, que instaura o que atualmente designamos por ciências cognitivas. A linguística alia-se a este movimento, num momento em que é necessário obter respostas para as questões com que se depara a inteligência artificial e a linguística computacional. Neste ambiente de mutação, a problemática do significado equacionado numa perspetiva geral e do significado entendido numa perspetiva particular ganha relevância. Com a afirmação de uma nova conceção de semântica nos anos 80 e com o desenvolvimento pleno da mesma nos anos 90, as teorias dinâmicas do significado atingem grande relevância. Segundo estas teorias, a interpretação do discurso é processual, ou seja, interpretamos as frases uma a uma em sequência e analisamos cada uma das mesmas como uma ampliação da informação construída. Com as abordagens dinâmicas do significado, assistimos a uma conceção de semântica em que o significado é concebido de forma incremental, quer isto dizer que o significado decorre de uma relação estabelecida entre condições de input e de output. De modo que se descentra da produção e concentra-se na receção. Neste sentido, a maneira como se constrói o discurso constitui como que um guia para o alocutário o interpretar. A problemática associada ao significado, em linguística, revela-se verdadeiramente complexa, considerando a multiplicidade de abordagens teóricas e a pluralidade de áreas disciplinares que abordam a questão.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this research work, a new routing protocol for Opportunistic Networks is presented. The proposed protocol is called PSONET (PSO for Opportunistic Networks) since the proposal uses a hybrid system composed of a Particle Swarm Optimization algorithm (PSO). The main motivation for using the PSO is to take advantage of its search based on individuals and their learning adaptation. The PSONET uses the Particle Swarm Optimization technique to drive the network traffic through of a good subset of forwarders messages. The PSONET analyzes network communication conditions, detecting whether each node has sparse or dense connections and thus make better decisions about routing messages. The PSONET protocol is compared with the Epidemic and PROPHET protocols in three different scenarios of mobility: a mobility model based in activities, which simulates the everyday life of people in their work activities, leisure and rest; a mobility model based on a community of people, which simulates a group of people in their communities, which eventually will contact other people who may or may not be part of your community, to exchange information; and a random mobility pattern, which simulates a scenario divided into communities where people choose a destination at random, and based on the restriction map, move to this destination using the shortest path. The simulation results, obtained through The ONE simulator, show that in scenarios where the mobility model based on a community of people and also where the mobility model is random, the PSONET protocol achieves a higher messages delivery rate and a lower replication messages compared with the Epidemic and PROPHET protocols.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho realizou-se na Refinaria de Sines e teve como principal objectivo a utilização de ferramentas oriundas da Área Científica da Inteligência Artificial no desenvolvimento de modelos de previsão da classificação da Água Residual Industrial de acordo com a Legislação em vigor, com vista à minimização dos impactes ambientais e das tarifas aplicadas pela Concessionária (Águas de Santo André) à Refinaria. Actualmente a avaliação da qualidade do efluente é realizada através de métodos analíticos após colheita de uma amostra do efluente final. Esta abordagem é muito restritiva já que não permite actuar sobre o efluente em questão pois apenas pode evitar que, no futuro, uma mistura semelhante volte a ser refinada. Devido a estas limitações, o desenvolvimento de modelos de previsão baseados em Data Mining mostrou ser uma alternativa para uma questão pró-activa da qualidade dos efluentes que pode contribuir decisivamente para o cumprimento das metas definidas pela Empresa. No decurso do trabalho, foram desenvolvidos dois modelos de previsão da qualidade do efluente industrial com desempenhos muito semelhantes. Um deles utiliza a composição das misturas processadas e o outro, utiliza informações relativas ao crude predominante na mistura. ABSTRACT; This study has taken place at the Sines Refinery and its main objective is the use of Artificial Intelligence tools for the development of predictive models to classify industrial residual waters according with the Portuguese Law, based on the characteristics of the mixtures of crude oil that arrive into the Refinery to be processed, to minimize the Environmental impacts and the application of taxes. Currently, the evaluation of the quality of effluent is performed by analytical methods after harvesting a sample of the final effluent. This approach is very restrictive since it does not act on the intended effluent; it can only avoid that in the future a similar mixture is refined. Duet these limitations, the development of forecasting models based on Data Mining has proved to be an alternative on the important issue which is the quality of effluent, which may contribute to the achievement of targets set by the Company. During this study, two models were developed to predict the quality of industrial effluents with very similar performances. One uses the composition of processed mixtures and the other uses information regarding the predominant oil in the mixture.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação de mestrado, Engenharia Electrónica e Telecomunicações, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2011

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tese (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2016.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A problemática relacionada com a modelação da qualidade da água de albufeiras pode ser abordada de diversos pontos de vista. Neste trabalho recorre-se a metodologias de resolução de problemas que emanam da Área Cientifica da Inteligência Artificial, assim como a ferramentas utilizadas na procura de soluções como as Árvores de Decisão, as Redes Neuronais Artificiais e a Aproximação de Vizinhanças. Actualmente os métodos de avaliação da qualidade da água são muito restritivos já que não permitem aferir a qualidade da água em tempo real. O desenvolvimento de modelos de previsão baseados em técnicas de Descoberta de Conhecimento em Bases de Dados, mostrou ser uma alternativa tendo em vista um comportamento pró-activo que pode contribuir decisivamente para diagnosticar, preservar e requalificar as albufeiras. No decurso do trabalho, foi utilizada a aprendizagem não-supervisionada tendo em vista estudar a dinâmica das albufeiras sendo descritos dois comportamentos distintos, relacionados com a época do ano. ABSTRACT: The problems related to the modelling of water quality in reservoirs can be approached from different viewpoints. This work resorts to methods of resolving problems emanating from the Scientific Area of Artificial lntelligence as well as to tools used in the search for solutions such as Decision Trees, Artificial Neural Networks and Nearest-Neighbour Method. Currently, the methods for assessing water quality are very restrictive because they do not indicate the water quality in real time. The development of forecasting models, based on techniques of Knowledge Discovery in Databases, shows to be an alternative in view of a pro-active behavior that may contribute to diagnose, maintain and requalify the water bodies. ln this work. unsupervised learning was used to study the dynamics of reservoirs, being described two distinct behaviors, related to the time of year.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The frequency selective surfaces, or FSS (Frequency Selective Surfaces), are structures consisting of periodic arrays of conductive elements, called patches, which are usually very thin and they are printed on dielectric layers, or by openings perforated on very thin metallic surfaces, for applications in bands of microwave and millimeter waves. These structures are often used in aircraft, missiles, satellites, radomes, antennae reflector, high gain antennas and microwave ovens, for example. The use of these structures has as main objective filter frequency bands that can be broadcast or rejection, depending on the specificity of the required application. In turn, the modern communication systems such as GSM (Global System for Mobile Communications), RFID (Radio Frequency Identification), Bluetooth, Wi-Fi and WiMAX, whose services are highly demanded by society, have required the development of antennas having, as its main features, and low cost profile, and reduced dimensions and weight. In this context, the microstrip antenna is presented as an excellent choice for communications systems today, because (in addition to meeting the requirements mentioned intrinsically) planar structures are easy to manufacture and integration with other components in microwave circuits. Consequently, the analysis and synthesis of these devices mainly, due to the high possibility of shapes, size and frequency of its elements has been carried out by full-wave models, such as the finite element method, the method of moments and finite difference time domain. However, these methods require an accurate despite great computational effort. In this context, computational intelligence (CI) has been used successfully in the design and optimization of microwave planar structures, as an auxiliary tool and very appropriate, given the complexity of the geometry of the antennas and the FSS considered. The computational intelligence is inspired by natural phenomena such as learning, perception and decision, using techniques such as artificial neural networks, fuzzy logic, fractal geometry and evolutionary computation. This work makes a study of application of computational intelligence using meta-heuristics such as genetic algorithms and swarm intelligence optimization of antennas and frequency selective surfaces. Genetic algorithms are computational search methods based on the theory of natural selection proposed by Darwin and genetics used to solve complex problems, eg, problems where the search space grows with the size of the problem. The particle swarm optimization characteristics including the use of intelligence collectively being applied to optimization problems in many areas of research. The main objective of this work is the use of computational intelligence, the analysis and synthesis of antennas and FSS. We considered the structures of a microstrip planar monopole, ring type, and a cross-dipole FSS. We developed algorithms and optimization results obtained for optimized geometries of antennas and FSS considered. To validate results were designed, constructed and measured several prototypes. The measured results showed excellent agreement with the simulated. Moreover, the results obtained in this study were compared to those simulated using a commercial software has been also observed an excellent agreement. Specifically, the efficiency of techniques used were CI evidenced by simulated and measured, aiming at optimizing the bandwidth of an antenna for wideband operation or UWB (Ultra Wideband), using a genetic algorithm and optimizing the bandwidth, by specifying the length of the air gap between two frequency selective surfaces, using an optimization algorithm particle swarm

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho propõe a utilização de técnicas de inteligência computacional objetivando identificar e estimar a potencia de ruídos em redes Digital Subscriber Line ou Linhas do Assinante Digital (DSL) em tempo real. Uma metodologia baseada no Knowledge Discovery in Databases ou Descobrimento de Conhecimento em Bases de Dados (KDD) para detecção e estimação de ruídos em tempo real, foi utilizada. KDD é aplicado para selecionar, pré-processar e transformar os dados antes da etapa de aplicação dos algoritmos na etapa de mineração de dados. Para identificação dos ruídos o algoritmo tradicional backpropagation baseado em Redes Neurais Artificiais (RNA) é aplicado objetivando identificar o tipo de ruído em predominância durante a coleta das informações do modem do usuário e da central. Enquanto, para estimação o algoritmo de regressão linear e o algoritmo híbrido composto por Fuzzy e regressão linear foram aplicados para estimar a potência em Watts de ruído crosstalk ou diafonia na rede. Os resultados alcançados demonstram que a utilização de algoritmos de inteligência computacional como a RNA são promissores para identificação de ruídos em redes DSL, e que algoritmos como de regressão linear e Fuzzy com regressão linear (FRL) são promissores para a estimação de ruídos em redes DSL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Solar radiation, especially ultraviolet A (UVA) and ultraviolet B (UVB), can cause damage to the human body, and exposure to the radiation may vary according to the geographical location, time of year and other factors. The effects of UVA and UVB radiation on organisms range from erythema formation, through tanning and reduced synthesis of macromolecules such as collagen and elastin, to carcinogenic DNA mutations. Some studies suggest that, in addition to the radiation emitted by the sun, artificial sources of radiation, such as commercial lamps, can also generate small amounts of UVA and UVB radiation. Depending on the source intensity and on the distance from the source, this radiation can be harmful to photosensitive individuals. In healthy subjects, the evidence on the danger of this radiation is still far from conclusive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objective Adapt the 6 minutes walking test (6MWT) to artificial gait in complete spinal cord injured (SCI) patients aided by neuromuscular electrical stimulation. Method Nine male individuals with paraplegia (AIS A) participated in this study. Lesion levels varied between T4 and T12 and time post injured from 4 to 13 years. Patients performed 6MWT 1 and 6MWT 2. They used neuromuscular electrical stimulation, and were aided by a walker. The differences between two 6MWT were assessed by using a paired t test. Multiple r-squared was also calculated. Results The 6MWT 1 and 6MWT 2 were not statistically different for heart rate, distance, mean speed and blood pressure. Multiple r-squared (r2 = 0.96) explained 96% of the variation in the distance walked. Conclusion The use of 6MWT in artificial gait towards assessing exercise walking capacity is reproducible and easy to apply. It can be used to assess SCI artificial gait clinical performance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

PURPOSE: To evaluate the need for artificial tears by glaucoma patients under topical hypotensive treatment and to identify risk factors associated with it. METHODS: The charts of 175 glaucoma patients under medical treatment and 175 age-matched controls were reviewed. Age, gender, use of artificial tears, number of glaucoma medications used, and duration of treatment were recorded. RESULTS: Significantly more glaucoma patients (n=92; 52.6%) used artificial tears compared to age-matched controls (n=31; 17.7%) (p<0.001). Significantly more females (n=81; 39%) than males (n=42; 28.9%) used artificial tears (p=0.036). When the whole population was analyzed, female gender (OR=1.63) and the presence of glaucoma (OR= 5.14) were risk factors for the use of artificial tears (p<0.05). When the glaucoma population was analyzed, female gender (OR=2.57), number of medications >2 (OR=1.92), and duration of treatment >5 years (OR=2.93) were risk factors for the use of artificial tears (p<0.05). CONCLUSIONS: Topical treatment with antiglaucoma medication is a risk factor for the use of artificial tears. Female gender and long-term treatment of glaucoma with two or more medications were aggravating factors for the need for artificial tears.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the most important properties of artificial teeth is the abrasion wear resistance, which is determinant in the maintenance of the rehabilitation's occlusal pattern. OBJECTIVES: This in vitro study aims to evaluate the abrasion wear resistance of 7 brands of artificial teeth opposed to two types of antagonists. MATERIAL AND METHODS: Seven groups were prepared with 12 specimens each (BIOLUX & BL, TRILUX & TR, BLUE DENT & BD, BIOCLER & BC, POSTARIS & PO, ORTHOSIT & OR, GNATHOSTAR & GN), opposed to metallic (M & nickel-chromium alloy), and to composite antagonists (C & Solidex indirect composite). A mechanical loading device was used (240 cycles/min, 4 Hz speed, 10 mm antagonist course). Initial and final contours of each specimen were registered with aid of a profile projector (20x magnification). The linear difference between the two profiles was measured and the registered values were subjected to ANOVA and Tukey's test. RESULTS: Regarding the antagonists, only OR (M = 10.45 ± 1.42 µm and C = 2.77 ± 0.69 µm) and BC (M = 6.70 ± 1.37 µm and C = 4.48 ± 0.80 µm) presented statistically significant differences (p < 0.05). Best results were obtained with PO (C = 2.33 ± 0.91 µm and M = 1.78 ± 0.42 µm), followed by BL (C = 3.70 ± 1.32 µm and M = 3.70 ± 0.61 µm), statistically similar for both antagonists (p>0.05). Greater result variance was obtained with OR, which presented the worse results opposed to Ni-Cr (10.45 ± 1.42 µm), and results similar to the best ones against composite (2.77 ± 0.69 µm). CONCLUSIONS: Within the limitations of this study, it may be concluded that the antagonist material is a factor of major importance to be considered in the choice of the artificial teeth to be used in the prosthesis.