155 resultados para Característica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo sistemático para a obtenção de um filme polimérico a partir da eletrooxidação do furfural (2-furanoaldeído). O filme foi crescido sobre a superfície do eletrodo de platina (Pt) e sobre carbono vítreo reticulado (CVR). Três técnicas eletroquímicas foram usadas: cronopotenciometria com correntes de 10 mA, voltametria cíclica por ciclagens sucessivas no intervalo de potencial de 2,0 V à 2,70 V (Ag/AgCl) e a cronoamperometria, no potencial de 2,65 V (Ag/AgCl). Diferentes eletrólitos foram testados em solução aquosa sobre Pt. O sal biftalato de potássio foi o eletrólito suporte mais adequado para formação do filme sobre ambos eletrodos, Pt e CVR. Os resultados obtidos confirmam a formação de um filme branco sobre a superfície dos eletrodos, entretanto, com alguma solubilização no próprio meio. Esta solubilidade do filme em meio aquoso permitiu atribuir-lhe características de polieletrólito. Evidências desta característica se confirmam pelas propriedades físico-químicas das soluções do filme testadas resultando no aumento da acidez e no aumento da condutividade do meio, quando se comparam as soluções de biftalato ácido de potássio com as do filme polimérico Os resultados revelam a formação de um filme poroso e espesso sobre a superfície dos eletrodos, com características que dependem do método eletroquímico empregado, bem como do tempo de polarização. A visualização do filme foi registrada por fotografias digitais e caracterizada por microscopia eletrônica de varredura. O crescimento do filme pelo método cronopotenciométrico forneceu os melhores resultados em termos de aderência e volume. Uma observação importante refere-se ao caráter condutor do filme formado, uma vez que medidas eletroquímicas dos eletrodos modificados não acusaram um decaimento significativo das correntes. Além das medidas eletroquímicas, a condutividade do polímero, determinada pelo método das quatro pontas, resultou num valor de 100 µS cm-1 para o obtido potenciostaticamente e de 150 µS cm-1 para o obtido galvanostaticamente. A caracterização do filme envolveu as medidas térmicas de calorimetria diferencial de varredura (DSC) e a análise termogravimétrica (TGA). As medidas espectroscópicas como o ultravioleta, infravermelho, Raman, ressonância magnética nuclear de H1 e de C13 diretamente com o filme formado ou através de suas soluções em solventes adequados, confirmaram a participação de ambos os anéis ftálico e furânico na estrutura do filme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor um modelo de gestão que integre Planejamento Estratégico, Gerenciamento de Processos e Avaliação de Desempenho, visando preencher uma lacuna identificada na gestão empresarial – a falta de integração entre as diretrizes estratégicas e a operação das empresas. Estes módulos são apresentados contemplando uma perspectiva histórica para a contextualização do problema, e suas inter-relações são discutidas. Considerando os indicadores de desempenho como elemento integrador dos outros dois módulos, faz-se a discussão e comparação de diversos modelos que se propõem a atender a necessidade atual de medição do desempenho organizacional. Da interação entre a revisão bibliográfica e aplicações práticas, chega-se ao modelo proposto, apresentando sua estrutura geral e seu procedimento para implantação, denominando-o “MEIO” – Modelo de Estratégia, Indicadores e Operações, com o qual se almeja estar contribuindo para a melhoria potencial da gestão das empresas. Este modelo se caracteriza por sua flexibilidade, permitindo que as empresas construam seu modelo de gestão por partes, começando por qualquer um dos módulos do MEIO, o que é importante dado que elas se encontram em estágios diferentes de desenvolvimento em termos de gestão. Além disso, como característica de sua proposta de integração, o próprio modelo induz a construção das outras partes que porventura não estejam devidamente implantadas ou em uso pela empresa. O modelo é aplicado em três empresas de diferentes segmentos, portes e estágios de maturidade em termos de gestão. Essas aplicações práticas do modelo MEIO, mesmo que parcialmente, mostram resultados quantitativos e qualitativos para as empresas, os quais são analisados e discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A relação entre tecnologia e competitividade é um ponto importante que desperta interesse acadêmico e prático sobre o assunto. Este estudo procura entender a função tecnologia num setor industrial com características bastante singulares. O Brasil, em função da característica de sua economia e com suas dimensões continentais, é um país onde predomina o transporte coletivo de passageiro via rodoviária. O principal meio de transporte utilizado é o ônibus. A indústria de montadora de carrocerias de ônibus é uma indústria onde todas as montadoras são empresas nacionais. Este trabalho estuda uma das quatro empresas nacionais que atuam no setor, sob o aspecto tecnológico. Este estudo propõe-se a entender a função tecnológica e relacioná-la à posição de liderança que a empresa estudada, no caso a Marcopolo S/A, ocupa no mercado de montadoras de carrocerias de ônibus. Liderança esta refletida pela competitividade e performance mercadológica da empresa. A função tecnologia e suas correlações na empresa é o principal componente de análise do modelo utilizado. Através do modelo utilizado e do estudo de caso realizado verificou-se que a preocupação e o desenvolvimento tecnológico fazem da empresa uma líder de mercado ano após ano, demonstrando que a adoção de tal entendimento é um ponto fundamental para seu desempenho de hoje. Fruto disto também, hoje é uma multinacional com unidades fabris na América do Sul, América Central e Europa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar os resultados do método PEI – Programa de Enriquecimento Instrumental – desenvolvido por Reuven Feuerstein, em trabalhadores de baixa escolaridade e qualificação de uma empresa de serviços. A fim de compreender as demandas das empresas modernas em relação aos seus trabalhadores, buscou-se na literatura o referencial teórico das escolas de administração que acompanham a crescente complexidade do ambiente empresarial moderno. A tendência à descentralização, principalmente na área de serviços, tem exigido o desenvolvimento da capacidade cognitiva e criativa de seus colaboradores. Considerando que o processo evolucionário, mesmo coletivamente, é resultado de uma aprendizagem individual, buscou-se no trabalho do educador Reuven Feuerstein um referencial teórico e metodológico que pudesse contribuir para que este ajustamento ocorra sem prejuízos para o trabalhador. Sua abordagem partiu da proposta de Piaget e está alinhada à de Vygotsky e Paulo Freire, também estudados na Parte I deste trabalho. A Parte II apresenta o desenrolar da pesquisa na empresa de serviços terceirizados, a ANDRITA Dragagens e Limpezas, onde o método de Feuerstein foi ministrado para 19 empregados voluntários, por 22 semanas. Nela são expostas as apreciações das avaliações, baseadas em testes e entrevistas individuais, realizadas pré e pós- intervenção. Os resultados do programa foram medidos por meio da análise comparativa das avaliações efetuadas antes e depois do PEI e são explanados na Parte III. Eles indicam que o método produziu mudanças positivas para todos os participantes, embora variando de foco e intensidade. Os efeitos mais significativos apareceram na auto-estima, os quais repercutiram na visão mais otimista do futuro e na atitude mais ativa e reflexiva diante de adversidades. A grande maioria dos participantes percebeu diferenças em seu jeito de ser e agir, tais como maior controle emocional, melhor comunicação e relacionamento interpessoal. Também foram comprovados ganhos no nível intelectual e na criatividade dos participantes. Essas mudanças se refletiram nas várias esferas da vida social, principalmente profissional e doméstica, proporcionando melhora em algum aspecto do desempenho percebido por eles próprios ou pela chefia. Passaram a assumir mais a responsabilidade pelo próprio desempenho, o que é uma característica desejável em trabalhadores de serviços. Um aspecto marcante da participação no programa foi o engajamento nas tarefas propostas pelos exercícios. Há vários relatos de como mergulhavam nas atividades e esqueciam do tempo e das preocupações, o que também é esperado no programa e visa desenvolver a motivação intrínseca, pela formação do hábito de realizar atividades que desafiem a própria capacidade. As entrevistas assinalaram, ainda, opiniões quanto ao método, seus exercícios e forma de condução, permitindo levantar idéias acerca da possibilidade de enriquecimento das atividades junto aos grupos de adultos em ambiente de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work proposes an investigation of the treatment given to memory in Pinter’s latest play, Ashes to Ashes, and of its function in the development of Pinter’s work. In order to do that, different aspects of the construction of meaning in the theatre are analysed, so that the specificity of its reception is determined. A survey of techniques used to present information, time and space in the theatre is made. The analytical drama, the history drama, and the theatre of the absurd are defined. After that, the evolution of the author’s work is analysed to determine what characterises Pinter’s work, while at the same time determining how his treatment of themes like menace, memory, and political oppression of the individual has evolved. Finally, a detailed survey of the apparently disconnected elements that are mentioned in Ashes to Ashes is made. The intertextual analysis allied to a study of the analytical form as used in this play enables the discovery of several layers of meaning. Through the connection established between the Holocaust and man’s fall followed by expulsion from Eden, Pinter examines the use of memory as a way of dealing with personal and collective responsibility and guilt. It is through the recovery of memory (also through writing) that the present can establish a critical and responsible relation with the past.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A temperatura baixa é um estresse comum na cultura do arroz em regiões temperadas, portanto a tolerância ao frio é uma característica altamente desejável em genótipos brasileiros de arroz cultivados no sul do país, onde as temperaturas baixas prejudicam o estabelecimento da lavoura e diminuem o redimento de grãos. O mapeamento molecular é uma estratégia promissora para o estudo e compreensão de de características com controle complexo, tais como a tolerância ao frio em arroz. Com base nisso, os objetivos deste trabalho foram estudar a herança e herdabilidade das características de tolerância ao frio e das características de importância agronômica a serem maepadas, desenvolver um mapa molecular a partir da população segregante F2 proveniente do cruzamento IRGA 417 (Índica) x Quilla 66304 (Japônica) e identificar locos de características quantitativas (QTLs) para a tolerância ao frio no período de germinação e vegetativo e características agronômicas que diferenciam estas duas subespécies. Por fim, investigar a possibilidade de obter indivíduos recombinantes com caracteristicas agronômicas desejáveis e toleância ao frio em uma população F2 do cruzamento entre IRGA 417 x Quilla 66304. As análises das distrbuições de freqüências da geração F2 evidenciaram a dificuldade de estimar o número de genes que controlam as características analisadas, sendo que todas elas apresentam distribuição contínua e segregação transgressiva em relação aos genitores. O mapa foi construído com base em oito marcadores SSR e 42 marcadores do tipo AFLP com uma densidade média de marcador a cada 38,8 cM, sendo o comprimento total do mapa de 581,6 cM. Foram identificados cinco QTLs, sendo que um deles confere tolerância ao frio no período de germinação, e explica 15,9% da variação fenotípica deste caráteer. O outros quatro QTLs identificados foram para largura do grgão (21,3%), esterilidade de espiguetas (61,6%), estatura das plantas (34, 5%) e comprimento do grão (21,9%). A detecção de um QTL associado à tolerância ao frio no período de germinação, e outros QTLs associados à demais características a viabilidade deste tipo de análise. Entretanto, um mapa de ligação enriquecido é nceessário para permitir a detecção de outros QTLs associados às características estudadas. Plantas recombinantes com alto recrescimento de coleóptilo e outrras caracteristicas agronômicas desejáveis foram encontradas, o que evidencia o potencial da população proveniente de IRGA 417 x Quilla 66304 para o melhoramento da tolerância ao frio de genótipos de arroz adaptados ao Sul do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta a implementação das etapas do método DMAIC (Definir, Medir, Analisar, Melhorar e Controlar) no desenvolvimento de um projeto Seis Sigma em uma indústria petroquímica. O objetivo do projeto Seis Sigma foi reduzir a variabilidade de uma característica de qualidade crítica para o cliente e diminuir a dispersão dos tempos de reação entre as bateladas na produção de elastômeros. Neste trabalho são apresentadas as principais técnicas e ferramentas estatísticas utilizadas nas cinco etapas do método DMAIC, tais como brainstorming, mapeamento de processo, diagrama de causa e efeito, matriz da causa e efeito, gráfico de Pareto, FMEA e análise de regressão linear múltipla. A pesquisa desenvolvida de forma participativa, através da interação entre o pesquisador e os especialistas do processo, evidenciou a importância do conhecimento técnico do processo e um bom planejamento para a aquisição dos dados, como pontos importantes para a realização de um projeto de melhoria bem sucedido. O estudo apontou ainda, deficiências no sistema de controle de temperatura do reator, no sistema de medição para a característica de qualidade viscosidade Mooney e no sistema de dosagem dos insumos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet. Desde a versão 2.0 do HTML, entretanto, pouco foi melhorado no modelo de formulários proposto. Ao mesmo tempo, as necessidades dos desenvolvedores e os requisitos dos usuários cresceram dramaticamente. O W3C apontou uma resposta para as necessidades levantadas, o padrão XForms. O padrão XForms visa substituir o modelo de formulários definido no HTML por um modelo que separa o propósito da apresentação, adicionando, desta forma, a característica de independência de plataforma. A proposta deste trabalho é analisar o padrão XForms em relação à utilização de formulários HTML tradicionais, e à outras soluções existentes para automação de formulários na Internet, utilizando para isto uma aplicação piloto que procure utilizar alguns dos principais recursos disponíveis no padrão. Os pontos fortes, pontos fracos, dificuldades e lições aprendidas capturadas durante o desenvolvimento da aplicação piloto formam uma base de conhecimento apresentada neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Automação Residencial é uma área em crescimento no mercado mundial. À medida que os avanços tecnológicos são incorporados aos dispositivos pertencentes ao ambiente residencial, e que estes se tornam mais disseminados, surgem necessidades para fabricantes e usuários. Para os fabricantes, é desejável maior capacidade de conexão e intercâmbio de dados entre os dispositivos e, conseqüentemente, padronização. Para os usuários, é desejável maior facilidade na utilização dos dispositivos e, principalmente, na configuração dos mesmos em ambientes dinâmicos, de forma a não requerer interação do usuário para a conexão e desconexão, característica das redes espontâneas. Grandes empresas têm unido esforços no desenvolvimento de novos padrões e uma das tendências observadas é o isolamento destas novas necessidades numa camada entre a aplicação e o sistema operacional, denominada middleware. Este trabalho compara duas tecnologias que se enquadram nos critérios acima: Jini, da Sun Microsystems e Universal Plug and Play (UPnP), de um consórcio de empresas liderado pela Microsoft. O estudo é feito através do desenvolvimento de um protótipo, da definição de um conjunto de métricas qualitativas e quantitativas, e da implementação de um conjunto de workloads para a análise comparativa entre elas. Os resultados obtidos são apresentados e analisados, contribuindo com subsídios para os interessados em conhecer melhor ou optar por uma delas. Por fim, são registradas algumas necessidades observadas que poderão servir como base para trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.