995 resultados para desenvolvidos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os planos de Incentivos e Recompensas, tema deste trabalho, apresentado através de estudos de caso de duas empresas do ramo metal-mecânico, situadas em Caxias do Sul, no Estado do Rio Grande do Sul, buscou retratar a forma como as duas empresas estão tratando a relação, a partir da percepção de seus membros, do retorno que os planos de Incentivos e Recompensas oferecidos a seus colaboradores trazem às mesmas. O presente trabalho procurou relacionar aspectos teóricos ligados à variedade de Modelos de Gestão disponíveis aos Administradores na tarefa de lidar com o comportamento humano, identificando através do Planejamento Estratégico de Recursos Humanos as necessidades organizacionais, contribuindo dessa maneira no processo participativo. Outro aspecto que é evidenciado são os programas de Remuneração Estratégica e Benefícios que visam, fundamentalmente, provocar mudanças favoráveis nos resultados da empresa. A Motivação também esta presente neste trabalho, já que ela trata uma variedade de aspectos comportamentais, sendo inegável o fato de que a diversidade de interesses percebida entre os indivíduos permite aceitar, que as pessoas não fazem as mesmas coisas pelas mesmas razões. A análise dos fatores extrínsecos e intrínsecos também é evidenciada já que, as atividades intrinsecamente motivadas são aquelas às quais não existe recompensa aparente, exceto as atividades em si mesmas, enquanto que as pessoas demonstram engajar-se a essas atividades em seu próprio benefício e não porque as levem a recompensas extrínsecas, ou seja, a ganhos materiais. Os procedimentos metodológicos utilizados no estudo dos casos foram de natureza exploratória e descritiva e de resultados não-conclusivos, e foram desenvolvidos em três etapas distintas: a primeira partiu de um levantamento junto às áreas de Recursos Humanos das empresas pesquisadas, sobre os tipos de Incentivos e Recompensas e Benefícios que as mesmas oferecem a seus funcionários; a segunda e a terceira etapas consistiram na aplicação de questionários com questões fechadas e com algumas questões para verificar o perfil dos funcionários. O instrumento foi aplicado aos níveis Estratégicos, Táticos e Operacionais, e a escolha dos sujeitos que responderam aos questionários foi através de amostragem estratificada proporcional. Para assegurar a representatividade em relação às propriedades adotadas como critérios para estratificação foram utilizadas as variáveis: níveis (Estratégicos, Táticos e Operacionais), escolaridade e sexo. Os resultados da pesquisa indicam que os Incentivos e Recompensas são utilizados como forma de motivação na empresa Y; entretanto, na empresa X, esse entendimento não se repete. Quanto ao aspecto da melhoria da produtividade, constata-se que os funcionários de ambas as empresas entendem que os Planos de Incentivos e Recompensas contribuem para a melhoria da mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Software tornou-se uma das principais áreas de concentração do mundo da Ciência da Computação, pois ela abrange métodos para construir sistemas, ferramentas que fornecem apoio a construção e os procedimentos a seguir para que os métodos estejam de acordo com as ferramentas usadas [PRE 95]. No desenvolvimento de sistemas cada vez mais complexos vê-se a necessidade da utilização de equipes de pessoas no projeto e implementação. Essas pessoas podem estar geograficamente dispersas e portanto possuem a necessidade de troca de informações para que os sistemas desenvolvidos sejam adequados com o objetivo inicial e de qualidade. Assim, os sistemas cooperativos, chamados de groupware, tornaram-se uma importante ferramenta utilizada por esse grupo de profissionais para que as tarefas desenvolvidas em grupo se tornem interativas e eficientes. A interação entre as pessoas que estão trabalhando cooperativamente deve ser a mais produtiva possível, sendo semelhante ao trabalho em grupo em um único local. Assim, a percepção das atividades que estão sendo realizadas devem estar disponíveis para cada profissional, através da Interface Homem-Computador do sistema groupware que estão utilizando. Este trabalho apresenta uma “biblioteca” de Componentes de Percepção que fornecem as informações necessárias para que as pessoas que estão participando da tarefa cooperativa tenham a percepção das atividades que estão sendo realizadas, como também quem e como as estão fazendo. Esses componentes são uma extensão do Ambiente PROSOFT Cooperativo, fornecendo assim uma especificação formal de forma a garantir completeza, corretude e ausência de ambigüidades que são muito difíceis de se conseguir com uma descrição informal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo da definição de discurso interior e da análise do processo de formação de conceitos abstratos desenvolvidos pelo psicólogo Lev Vygotsky, faz-se uma aproximação com a teorização do cineasta Sergei Eisenstein sobre as possibilidades de incorporação do discurso interior pelo cinema. Analisam-se as relações entre o conteúdo eminentemente icônico das imagens cinematográficas e os aspectos sensoriais não-verbais presentes no discurso interior, indicados por Vygotsky, com o objetivo de investigar as formas como o discurso cinematográfico articula seus recursos expressivos através da montagem, visando reproduzir em sua organização formal os processos cognitivos que têm lugar no pensamento e que são expressos pelo discurso interior; para isso, o foco de análise centra-se nos métodos de montagem estabelecidos por Eisenstein. Investiga-se também os modos de produção de sentido através da articulação de signos icônicos não-verbais pela montagem cinematográfica, ressaltando o papel que os componentes afetivos da cognição e do intelecto desempenham no processo de produção de conceitos pelo cinema, especialmente o cinema caracterizado nos textos e reflexões teóricas de Eisenstein. Conclui-se que o tipo de discurso interior produzido pelo cinema em geral e o eisensteiniano em particular é aquele que foi definido por Vygotsky como discurso cotidiano ou espontâneo, motivado afetivamente e ligado ao contexto da situação concreta em que emerge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar a codisposição de resíduos sólidos de serviços de saúde (RSSS) com resíduos sólidos urbanos (RSU), dando ênfase aos microrganismos normalmente encontrados nos RSSS. O trabalho foi desenvolvido em três etapas, julgadas relevantes para o entendimento da codisposição de RSSS com RSU, denominadas de forma geral: Codisposição, Recirculação e Inoculação. A Codisposição foi implementada a partir da montagem de seis células de 70 m3, portanto em escala real, escavadas sobre a Célula 4 do Aterro Sanitário Zona Norte, na cidade de Porto Alegre. As células experimentais foram dispostas lado a lado, apresentando base inferior 2 x 3 m, base superior 7 x 8 m e profundidade 2,5 m. Cada célula recebeu, nesta ordem, cobertura de BIDIM 400, PEAD 2 mm e BIDIM 180. As duas coberturas de BIDIM funcionaram como membranas protetoras da manta de PEAD (impermeabilizante), visando minorar possíveis danos mecânicos determinados principalmente por elementos pérfuro-cortantes. As drenagens dos efluentes líquidos e gasosos de cada célula foram realizadas através de tubos hidráulicos de DN 40 mm, possuindo estes comunicação entre si no interior de cada célula, mas não entre células. Os tubos de saída de gás e lixiviado foram furados em sua superfície para garantir a remoção dos efluentes do interior das células, sendo forrados com BIDIM 400 nas regiões perfuradas para impedir a obstrução dos furos pelo resíduo. As células foram denominadas C1, C2, C3, C4, C5 e C6, diferindo entre si devido às relações de RSSS/RSU que foram utilizadas em seu preenchimento. De C1 a C6, as percentagens de RSU e RSSS foram, respectivamente, (100% e 0%), (95% e 5%), (75% e 25%), (50% e 50%), (25% e 75%) e (0% e 100%). Depois de preenchidas, as células receberam uma camada de argila compactável de 60 cm. Foram analisadas diversas variáveis físicas, químicas e microbiológicas de controle. Na etapa de Recirculação, estudou-se a influência da reposição de todo o lixiviado gerado em uma célula sobre a argila de recobrimento desta mesma célula. Foi estudado ainda o Poder Germinativo de quatro espécies vegetais das quais uma delas viria a ser utilizada para remoção de poluentes do lixiviado recirculado, sendo plantada sobre a superfície superior das células. Foram elas ervilhaca (Vicia sativa), aveia preta (Avena strigosa), alfafa (Medicago sativa) e pensacola (Paspalum notatum), testadas na presença e ausência de lixiviado;. Nesta etapa, foi testada a influência da espécie vegetal ervilhaca (Vicia sativa) – leguminosa de inverno –, plantada na argila, como agente de depuração do lixiviado recirculado. Verificou-se que a utilização desta espécie vegetal não teve influência significativa na remoção de poluentes do lixiviado, nas condições do experimento. A redução das concentrações de poluentes se deveu, portanto, à operação de recirculação. Na etapa denominada Inoculação, foram estudadas as curvas de crescimento de três espécies de microrganismos em lixiviado bruto e esterilizado. Foram utilizados reatores de 1,5 L preenchidos com 1 L de lixiviado esterilizado previamente, sendo inoculadas concentrações conhecidas dos microrganismos Escherichia coli, Pseudomonas aeruginosa e Staphylococcus aureus, separadamente. Para cada microrganismo, foram montados doze reatores: quatro com pH 5, quatro com pH 7 e quatro com pH 9. De cada conjunto de reatores de mesmo pH, três foram inoculados com igual concentração de microrganismos, e um, considerado reator de controle, recebeu somente água deionizada e esterilizada. Desenvolveram-se, como esperado, as curvas de crescimento para as espécies estudadas. A espécie Pseudomonas aeruginosa se adaptou melhor (maior tempo de sobrevivência e concentrações mais elevadas) no pH neutro, enquanto que a espécie Escherichia coli se desenvolveu melhor no pH ácido. No pH 9, ambas as espécies foram inviabilizadas desde a primeira contagem. Para Staphylococcus aureus a concentração reduziu-se drasticamente nas primeiras 24 h para todos os valores de pH. Comparando-se os pH, essa espécie se adaptou melhor no pH neutro e depois no pH ácido. A partir dos estudos desenvolvidos, a codisposição de RSSS com RSU se mostrou uma técnica aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work proposes an investigation of the treatment given to memory in Pinter’s latest play, Ashes to Ashes, and of its function in the development of Pinter’s work. In order to do that, different aspects of the construction of meaning in the theatre are analysed, so that the specificity of its reception is determined. A survey of techniques used to present information, time and space in the theatre is made. The analytical drama, the history drama, and the theatre of the absurd are defined. After that, the evolution of the author’s work is analysed to determine what characterises Pinter’s work, while at the same time determining how his treatment of themes like menace, memory, and political oppression of the individual has evolved. Finally, a detailed survey of the apparently disconnected elements that are mentioned in Ashes to Ashes is made. The intertextual analysis allied to a study of the analytical form as used in this play enables the discovery of several layers of meaning. Through the connection established between the Holocaust and man’s fall followed by expulsion from Eden, Pinter examines the use of memory as a way of dealing with personal and collective responsibility and guilt. It is through the recovery of memory (also through writing) that the present can establish a critical and responsible relation with the past.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese focaliza a educação profissional a partir dos programas de formação profissional para surdos desenvolvidos em diferentes tempos e espaços educacionais, tanto em escolas como nos movimentos surdos. Esses programas atendem a uma determinada racionalidade que governa a conduta daqueles sujeitos para as quais as ações são diretamente pensadas, mas também constituem subjetividades entre os diferentes atores que se envolvem na elaboração, realização, avaliação desses programas. Essa racionalidade política vem engendrando um conjunto de procedimentos, de saberes e de poderes considerados desejáveis e úteis para a conformação de sujeitos que saibam dirigir suas condutas. Para realizar a análise dos programas de formação profissional, inspirei-me em algumas ferramentas analíticas utilizadas por Michel Foucault e outros autores que, inscrevendo-se em uma perspectiva pós-estruturalista, analisam o funcionamento da racionalidade política na Modernidade. Argumento que a formação de trabalhadores se constitui em um dispositivo de governamento que responde às necessidades e exigências de um sistema econômico, social, político e cultural que se preocupa com o risco do desemprego e da exclusão social de indivíduos identificados em grupos específicos e neste estudo, particularmente, dos surdos As unidades analíticas da pesquisa foram construídas a partir da captura das ênfases, das repetições, das articulações entre prescrições e procedimentos dentro dos programas. Essas unidades são apresentadas como tecnologias de governamento de si e dos outros que vêm conformando surdos trabalhadores disciplinados, reabilitados, integrados, autônomos, cidadãos e empreendedores como também almejando instituições articuladas no sentido do fortalecimento da sociedade civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento desse trabalho trata da construção discursiva do imigrante hispano-americano no Brasil, principalmente na região sul do país. O marco teórico que orienta esse estudo inclui-se na Análise da Discurso de linha francesa. Destacam-se aspectos importantes do trajeto discursivo que os imigrantes hispano-americanos produziram a partir da década de 60 e que se estende até a década de 90. Grande parte desse período coincide com o aparecimento das ditaduras militares em América Latina, demarcando, assim, um espaço histórico-discursivo específico. Da mesma forma, ressaltam-se implicações desse percurso imigrante quando discutimos a inserção na língua portuguesa, o que exige uma “negociação” com a língua materna espanhol. Podemos identificar esse movimento quando encontramos resistências expostas no âmbito enunciativo. Quando assinalamos esses dois pontos: inserção histórico-discursiva e inserção na língua portuguesa, nos apoiamos em dois conceitos desenvolvidos por Pêcheux em sua teoria discursiva, sendo eles: real da história e real da língua, os quais comportam aspectos de um indecifrável que tanto na história como na língua produzem fendas, que traduzidas enquanto falhas permitem oxigenação e deslocamento de significações. Finalmente e, conforme o quadro aqui exposto, cabe dizer que o fio que orienta nossa pesquisa procura elucidação sobre o processo que o imigrante hispano-americano realiza nesse acontecimento migratório e nele identificar os elementos num discurso que o represente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inicialmente, trataremos somente do capital não humano. Ao final analizaremos a composição da força de trabalho e seus efeitos, prováveis na taxa de crescimento. É possível que dois sistemas econômicos igualmente desenvolvidos, de dimensões iguais e baixo coeficiente de abertura tenham uma composição semelhante de sua estrutura do capital não humano. O rigor teórico indicaria funções de produção e estrutura de demanda idênticas como necessário para se ter uma mesma composição do capital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No trabalho "Equilibrium Valuation of Illiquid Assets" John Krainer e Stephen F. LeRoy desenvolvem um modelo baseado em pesquisa e apropriação e classificam os imóveis como ativos ilíquidos, ou seja, para a efetivação das suas transações é necessário um lapso de tempo e que o comportamento ótimo dos compradores e vendedores é inconsistente com a imediata realização dessas transações. Com intuito de confirmar se a afirmação de Krainer e LeRoy se aplica ao caso brasileiro e quantificar a duração desse lapso, esta dissertação teve por objetivo determinar o tempo médio de venda para os imóveis em lançamento localizados nas cidades de Belo Horizonte, Goiânia, Porto Alegre e Recife, no período de janeiro de 1997 a dezembro de 2001. Inicialmente foram calculadas as probabilidades de venda dos imóveis (Pis) e a partir dessas Pis foram calculados os tempos médios de venda dos imóveis. Para o estabelecimento dessas probabilidades foram desenvolvidos programas usados no aplicativo computacional Matlab (versão 6.0.0.88 release 12). Pôde-se constatar que as transações imobiliárias nos mercados estudados só ocorrem após um lapso de tempo, que variou de oito meses a três anos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente utilização de computadores e a popularização da Internet contribuem cada vez mais para que usuários não especialistas em informática tenham acesso a sistemas computacionais. Tais usuários possuem diferentes habilidades, formações e idades que devem ser levadas em consideração no projeto de uma boa interface. No entanto, no projeto de interfaces web é muito difícil identificar essas características do público alvo, tendo em vista que ele é bastante diversificado. Assim, construir uma interface que atenda os requisitos de todos os usuários de um site não é uma tarefa fácil. Se o projetista tivesse uma maneira de conhecer o seu público, grande parte dos problemas de interação entre usuário e interface poderiam ser resolvidos. Assim, a fim de auxiliar na tarefa de conhecer o público que um site possui, várias técnicas estão disponíveis. Independente das características dos usuários de sites web, a sua principal necessidade consiste em encontrar a informação desejada de modo fácil e rápido. Ainda que seja possível identificar o comportamento de todos os usuários em um site, torna-se difícil disponibilizar informações de forma clara e simples para todos. Para isto, um site adaptativo, que se ajusta automaticamente a cada usuário de acordo com seus padrões de comportamento, é muito útil. Sites adaptativos são desenvolvidos com base em técnicas que auxiliam o projetista na tarefa de personalizar páginas web e, por este motivo, são chamadas de técnicas de personalização. O objetivo desta dissertação é investigar, desenvolver e experimentar uma técnica de personalização de interfaces web voltada especificamente para sites institucionais. Este tipo de site é voltado à divulgação de produtos e serviços de uma instituição e, normalmente, é composto por um grande número de páginas estruturadas de acordo com a estrutura organizacional da instituição. Essa característica permite o agrupamento de usuários por funções ou cargos. A técnica proposta neste trabalho é baseada em perfis de usuários, onde a personalização ocorre em dois níveis: nível de grupos de usuários e nível de usuários individuais, denominados respectivamente de macro perfil e micro perfil. Um estudo de caso realizado na intranet da Agência Nacional de Telecomunicações – ANATEL foi utilizado para aprimorar e validar a técnica. Foi desenvolvido um protótipo de site institucional personalizado, o qual foi disponibilizado, utilizado e avaliado por um grupo de usuários previamente selecionados. O processo de construção do protótipo assim como da avaliação e seus resultados são também descritos neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Expondo os planos: as exposições universais do século XX e seus planos urbanísticos. Esta dissertação versará sobre as exposições de caráter universal, expoentes da cultura e do pensamento de uma respectiva época. Mais precisamente abordará seus planejamentos e seus projetos urbanos e a capacidade destes eventos de absorverem ou gerarem e propagarem idéias e pensamentos. Desta forma, tomando-se como base às exposições universais e as teorias urbanísticas buscar-se-á fazer um cruzamento que evidencie aspectos das relações entre os planos urbanísticos de algumas das mais significativas exposições universais do século XX (Exposição Internacional de Barcelona 1929, Internacional de Paris 1937, Universal de Bruxelas 1958, Universal de Sevilha 1992, Internacional de Lisboa 1998 e Universal de Hannover 2000) e os principais pensamentos urbanísticos desenvolvidos durante este período. Tudo isso dentro de um contexto onde os pensamentos dominantes, as ideologias e os conceitos sofreram grandes e constantes mudanças, mas onde o aspecto da internacionalização ou universalização está sempre presente.