162 resultados para Jabuticaba - Processamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As tecnologias que criaram as ferrovias, a concentração de mercados urbanos, o surgimento da produção em massa, a eletrificação e a introdução do motor de combustão interna compuseram uma longa cadeia de forças responsáveis pelo impacto na reestruturação dos negócios, na economia política como um todo e, naturalmente, na relação do homem com o seu trabalho. A tecnologia da informação (TI) pode ser considerada a mais recente e influente das tecnologias inseridas na sociedade, trazendo consigo uma série de impactos bem como a necessidade de pesquisas para o melhor entendimento desse novo fenômeno. O presente estudo teve como objetivo avaliar a percepção de bancários em relação ao impacto da TI sobre seu trabalho. Para tanto, foi adaptado e validado para o contexto brasileiro um instrumento de pesquisa criado por Torkzadeh e Doll capaz de medir a percepção do usuário em relação ao impacto da TI sobre seu trabalho individual e, para ampliar os estudos sobre o impacto da TI, foi elaborada e validado um instrumento de avaliação do impacto da TI sobre o processo decisório individual. A pesquisa classifica-se como um estudo exploratório descritivo, utilizando o método estatístico no que se refere à obtenção, ao processamento e à validação dos dados. A coleta de dados obedeceu à concepção dos estudos transversais, ao passo que a estratégia para a obtenção dos mesmos baseou-se na realização de 411 entrevistas com funcionários do banco que se encontravam trabalhando, durante o período da pesquisa (dezembro de 2002), na rede de agências ou na sede administrativa de dez capitais brasileiras, selecionadas para esta survey. A presente pesquisa obteve como resultado do instrumento adaptado de Torkzadeh e Doll (1999) uma significante diferença estatística entre as médias das variáveis de análise e confirmou a percepção de que a TI causa impacto em primeiro lugar na produtividade; em segundo, na satisfação dos clientes; em terceiro, no controle gerencial; e, por último, na inovação. O instrumento sobre processo decisório demonstrou uma diferente e maior percepção de impacto da TI sobre a fase denominada concepção e uma semelhante e menor percepção de impacto sobre as demais fases do processo (implementação, inteligência e escolha).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A filtragem de imagens visando a redução do ruído é uma tarefa muito importante em processamento de imagens, e encontra diversas aplicações. Para que a filtração seja eficiente, ela deve atenuar apenas o ruído na imagem, sem afetar estruturas importantes, como as bordas. Há na literatura uma grande variedade de técnicas propostas para filçtragem de imagens com preservação de bordas, com as mais variadas abordagens, deentrte as quais podem ser citadas a convolução com máscaras, modelos probabilísticos, redes neurais, minimização de funcionais e equações diferenciais parciais. A transformada wavelet é uma ferramenta matemática que permite a decomposição de sinais e imagens em múltiplas resoluções. Essa decomposição é chamada de representação em wavelets, e pode ser calculada atrravés de um algorítmo piramidal baseado em convoluções com filtros passa-bandas e passa-baixas. Com essa transformada, as bordas podem ser calculadas em múltiplas resoluções. Além disso, como filtros passa-baixas são utilizados na decomposição, a atenuação do ruído é um processo intrínseco à transformada. Várias técnicas baseadas na transformada wavelet têm sido propostas nos últimos anos, com resultados promissores. Essas técnicas exploram várias características da transformada wavelet, tais como a magnitude de coeficientes e sua evolução ao longo das escalas. Neste trabalho, essas características da transformada wavelet são exploradas para a obtenção de novas técnicas de filtragem com preservação das bordas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve uma implementação de um modelo de escalonamento para a linguagem de programação DPC++. Esta linguagem, desenvolvida no Instituto de Informática da UFRGS, possibilita que uma aplicação orientada a objetos seja distribuída entre vários processadores através de objetos distribuídos. Muito mais que uma simples biblioteca de comunicação, o DPC ++ torna a troca de mensagens totalmente transparente aos objetos. A integração do DPC++ com o DECK, também em desenvolvimento, trará grandes inovações ao DPC++, principalmente pelo uso de theads. O escalonador proposto para este modelo utiliza estes recursos para implantar os chamados processos espiões, que monitoram a carga de uma máquina, enviando seus resultados ao escalonador. O escalonador implementado possui, desta forma, dois módulos: objetos espiões implementados como um serviço do DECK e o escalonador propriamente dito, incluído no objeto Diretório, parte integrante do DPC++.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de Processamento de Imagens e de Computação Gráfica vêm sendo empregadas há bastante tempo para o diagnóstico por imagens em Medicina. Mais recentemente, aplicações baseadas em modelos anatômicos, tanto extraídos de volumes de imagens como criados com base em estudos de anatomia, despontam com força. Tais modelos visam suportar simulação de movimento e de fisiologia. Porém, para que isso se torne realidade, modelos anatômicos do corpo humano precisam ser construídos e aperfeiçoados. Entre outras funcionalidades, esses modelos devem ser capazes de representar o movimento articulado do corpo humano. O problema de modelagem das articulações já foi considerado em diversos trabalhos, principalmente em Robótica e Animação. Entretanto, esses trabalhos não levaram em conta fidelidade anatômica com profundidade suficiente para que pudessem ser utilizados em aplicações de Medicina. O principal objetivo deste trabalho, portanto, é a criação de uma estratégia de representação de articulações embasada em características anatômicas para modelagem de esqueletos humanos virtuais. Um estudo da anatomia do esqueleto humano é apresentado, destacando os tipos de articulações humanas e aspectos do seu movimento. Também é apresentado um estudo dos modelos de articulações encontrados na literatura de Computação Gráfica, e são comentados alguns sistemas de software comercial que implementam corpos articulados. Com base nesses dois estudos, procurou-se identificar as deficiências dos modelos existentes em termos de fidelidade anatômica e, a partir disso, propor uma estratégia de representação para articulações humanas que permitisse a construção de corpos humanos virtuais anatomicamente realísticos. O modelo de articulações proposto foi projetado com o auxílio de técnicas de projeto orientado a objetos e implementado no âmbito do projeto Virtual Patients. Usando as classes do modelo, foi construído um simulador de movimentos, que recebe a descrição de um corpo articulado através de um arquivo em formato XML e apresenta uma animação desse corpo. A descrição do movimento também é especificada no mesmo arquivo. Esse simulador foi utilizado para gerar resultados para verificar a correção e fidelidade do modelo articular. Para isso, um joelho virtual foi construído, seus movimentos foram simulados e comparados com outros joelhos: o modelo de outro simulador, um modelo plástico anatômico e o joelho real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda a experiência das feiras livres existentes na província de Misiones, Argentina. Em toda a província existem 31 feiras onde aproximadamente 2.000 agricultores familiares vendem produtos da “chácara” (produtos in-natura e com um mínimo grau de processamento). Em torno das feiras se formou uma rede da qual participam, além dos agricultores, técnicos de diferentes instituições e organizações que atuam no meio rural, os municípios, o governo provincial, organizações civis e consumidores. O trabalho visa compreender o que leva os atores sociais a confluírem na experiência das feiras livres, a captar as inter-relações, interesses e significados e identificar no imaginário dos atores, elementos que indiquem a visão sobre o meio rural que está se construindo na rede. A coleta dos dados foi feita através de entrevistas semi-estruturadas aplicadas a um informante qualificado e a quatro grupos de atores: os mediadores técnicos das instituições, os representantes do poder público municipal e provincial, os agricultores e os consumidores. Também foram coletados dados a partir da observação direta e da análise do material produzido pelos próprios atores. Na primeira parte da análise as feiras livres foram consideradas como uma rede de poder formada pelos seguintes atores coletivos: a “Asociación de Ferias Francas de Misiones”, o “Programa Social Agropecuario” o “Movimiento Agrario Misionero” a “Red de Agricultura Orgánica de Misiones”, o Instituto de Desarrollo y Promosión Humana”, os Municípios e o Governo provincial. Na segunda parte da análise trabalhou-se com as noções sobre o mundo rural e consideraram-se os atores individuais que trabalham em três feiras escolhidas, mas que possuem uma visão da experiência no geral, e os que representam os atores coletivos Com relação à rede de poder foram enfocadas as inter-relações entre os atores, o acordo dos seus interesses e o intercâmbio de recursos de poder, chegando-se à governança da rede, caracterizada como de autoorganização onde todos atores possuem uma certa porção dos recursos de poder não existindo nenhum deles capaz de ser hegemônico. Com todos estes elementos se determinou que esta rede tem a característica de uma “Rede Difusa”. Em relação à idéia de meio rural, mesmo que mais ou menos homogênea, mais ou menos clara, percebe-se a construção de uma noção de meio rural como um espaço multidimensional, caracterizado pela presença de agricultores familiares pluriativos, pela existência de mercados socialmente construídos e pela articulação entre diversos setores da sociedade. Assim, esta noção se diferencia da tradicional idéia do rural vinculado exclusivamente ao agrícola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A paralelização de aplicaçõpes envolvendo a solução de problemas definidos sob o escopo da Dinâmica dos Fluidos Computacional normalmente é obtida via paralelismo de dados, onde o domínio da aplicação é dividido entre os diversos processadores, bem como a manutenção do balancecamento durante a execução é um problema complexo e diversas heurísticas têm sido desenvolvidas. Aplicações onde a simulação é dividida em diversas fases sobre partes diferentes do domínio acrescentam uma dificuldade maior ao particionamento, ao se buscar a distirbuição equlibrada das cargas em todas as fases. este trabalho descreve a implementação de mecanismos de particionamento e balanceamento de carga em problemas multi-fase sobre clusters de PCs. Inicialmente é apresentada a aplicação desenvolvida, um modelo de circulação e transporte de susbtâncias sobre corpos hídricos 2D e 3 D, que pode ser utilizado para modelar qualquer corpo hídrico a partir da descrição de sua geometria, batimetria e condições de contorno. Todo o desenvolvimento e testes do modelo foi feito utilizando como caso de estudo o domínio do Lago Guaíba, em Porto Alegre. Após, são descritas as principais heurísticas de particionamento de domínio de aplicações multi-fase em clusters, bem como mecanismos para balanceamento de carga para este tipo de aplicação. Ao final, é apresentada a solução proposta e desenvolvida, bem como os resultados obtidos com a mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a pesquisa e o desenvolvimento da ferramenta para geração automática de leiautes WTROPIC. O WTROPIC é uma ferramenta para a geração remota, acessível via WWW, de leiautes para circuitos CMOS adequada ao projeto FUCAS e ao ambiente CAVE. O WTROPIC foi concebido a partir de otimizações realizadas na versão 3 da ferramenta TROPIC. É mostrado também, como as otimizações no leiaute do TROPIC foram implementadas e como essas otimizações permitem ao WTROPIC cerca de 10% de redução da largura dos circuitos gerados em comparação ao TROPIC. Como o TROPIC, o WTROPIC é um gerador de macro células CMOS independente de biblioteca. Apresenta-se também, como a ferramenta WTROPIC foi integrada ao ambiente de concepção de circuitos CAVE, as mudanças propostas para metodologia de integração de ferramentas do CAVE que conduzem a uma melhora na qualidade de integração e a padronização das interfaces de usuário e como a síntese física de um leiaute pode ser então realizada remotamente. Dessa maneira, obteve-se uma ferramenta para a concepção de leiautes disponível a qualquer usuário com acesso a internet, mesmo que esse usuário não disponha de uma máquina com elevada capacidade de processamento, normalmente exigido por ferramentas de CAD.